КЕНО-Спортлото / Нейронные сети лотерея

нейронная сеть на основе источников роботов

Все более прекрасные дни! Я студент тезиса, выбранного «Сеть информационных Нейроны» (ИНС). Пазлы, где вы хотите работать с числами, довольно легко решить. И я решил усложнить систему путем добавления обработки текстов. Эти взгляды, мы поставили перед собой задачу создать «спутник робот», который может общаться на любую тему.

Как тема BUSSINES общения достаточно широк, я не ценю диалог в целом (приветствовать Тьюринга), рассматривается только соответствующий «Собеседник» ответ в человеческом заявлении.

Расстояние будет называться вопросом предложения, примененный к введению ИНСА, и ответ на ответ, когда он вышел.

архитектура 1. обратного распространения нейронной сети с двойным слоем с защищенного слоем

Поскольку нейронная сеть работает только с числами, вы должны кодировать слова. Для простоты исключены символы пунктуации, с большим количеством букв в письменном виде, называя только их собственные.

Слово Любы кодируется с 2 целых чисел, начиная с один (ноль отвечает за отсутствие этого слова) - номер категории и количество слов в вашем поиске. Участие в «категории», чтобы сохранить слова аналогичного значения или типа (названия цветов, например).

Таблица 1

{ } разные N , где требуется количество скрытых нейронов

Категория 1
} Категория 2
Категория 3
} 1
4



{ }
большой большой
большой uimitor большой
большой

Terrible
Отвратительно { } Отвратительно
Отвратительно


{ Hello} Hello
{Добро пожаловать }}

Для нейронной сети, данные нормализованы, уменьшают до $ инлайн $ [0, 1] $ инлайн $ диапазона. Камеры и слова категории - при высоком значении $ инлайн $ M $ инлайн категории $ номер или слово во всех категориях. Предложение переводится в реальную длину фиксированного вектора, недостающие части заполняются нулями.

Любое предложение (вопрос и ответ) может содержать до 10 слов. Этот тип сети получают с 20 входами и 20 выходами.

Необходимое количество сетевых соединений, чтобы помнить
N
примеры были рассчитаны по формуле:


, где
{ м} есть число записей,
п
есть число выходов,
есть число примеров.

Количество сетевых соединений с скрытым слоем, состоящим из
H
{ нейронов}

За $ инлайн $ N = 20 $ инлайн $, $ инлайн $ M = $ 20 $ рядный, сделка

В результате мы получаем зависимость числа скрытых нейронов в ряде примеров:

Структура изученной сети представлена ​​на эскизе 1.


В сети реализована в среде MATLAB, обучение является способом для распространения обратных ошибок. Сбор студентов содержит 32 предложений ... Великий и не надо ...

ИНС не может понять более 15 предложений, которое показано на следующем графике (рисунок 2). Ошибка вычисляется как разность между текущим выходом НС и требуемой мощности.


Пример диалога (все вопросы выборки):





Hello

Hello

, сколько вам лет

Нейронные сети лотерея 1 четыре месяца

велики

не знаю, что сказать,

Нейронные сети лотерея 2


{ являются} большой Boto не знаю, что сказать, равно
  • дружба отлично

отличная
  • до свидания

увидимся

В результате тестирования для различного числа примеров, стало ясно, что даже выбор формирования INS вспоминает с большим трудом (как можно видеть на фигуре 2). Чуть более одного миллиона ошибки, ошибка не может быть сведена к запрашиваемой сумме.
2. нейронная архитектура сети с двумя слоями прямого распределения
  • слов Способ кодирования нисходящей линии связи для NIS является уникальным кодированием [4]. Суть его заключается в следующем: Пусть имеется $ $ D $ рядный рядный $ в алфавитном порядке словарь. Каждое слово такого словаря кодируется вектором длины $ рядный рядный $ $ D $, содержащей устройство в месте, соответствующем числу слова в словаре и нули в других местах.
  • Для экспериментов был создан словарь $ рядный = $ D $ 468 $ инлайн обучения слова и набор из 95 предложений. Были применены входные слова 6 NA и ответ также считается шесть слов.
Число нейронов в скрытом слое определяется на основе количества ссылок на количество экземпляров в сети можно узнать без ошибок.
Привет вам
    , и я знаю, как быть мужчиной?

человек велик

, что I

поклонение

Я хотел бы узнать,

, что приятно для вас

не велика? По плодам их вы можете увидеть, что теперь система может хранить большое количество слов. Победить практика ... но есть еще одна заморочка - определение синонимов и связанных слов [4].
  • , как вы
Я не знаю, что сказать,
  • совершенные боты
И все же я?

    архитектура 3. обратного распространения нейронных сетей
  • с двумя слоями с одним слоем, и слово 2vec кодирования
  • Для того, чтобы решить prepyadstviya сходства слов и синонимов решили распробовать word2vec [4], который позволяет увидеть основы кодовых слов.
Для экспериментов в векторах сети словаря были использованы word2vec длина инлайн $ $ $ $ инлайн D = 50, обучение на основе обучения нейронной сети.
    Вход в нейронной сети 6 подается со словом (массив длиной 300) и служит для приема ответа, который содержит шесть слов. При работе на кодирование вектора движения разделено на шесть векторы слов, Люба, в которых тезаурус, скорее всего, одобрение косинуса угла между векторами $ инлайн $ A $ инлайн $ и $ инлайн $ B $ инлайн $
  • Но даже если такое слово не implementare2 создать соответствующие связи между словами, с точки зрения русского языка. Для того, чтобы разработать конкретный словарь, в котором синонимы расположены очень близко к обучению здания состояли синонимы группы, которые смешиваются друг с другом с целью:

  • Me Me Me Me MY
  • ты, ты, ты, ты



В результате таких презентаций, не нужно запоминать огромное количество синонимов, которые могут быть приняты в форме (например, «привет», «привет», «добро пожаловать»). Например, только привет - привет участвовал в составлении обучения, другие ответы были получены из-за близости косинус больше «привет», «привет» и «поздороваться».


Привет

ПРИВЕТ


добро пожаловать
Привет

ПРИВЕТ



HELLO Bots

вы можете сказать
    можете выбрать ваш ответ
  • в соответствии с

Я говорю и напоминаю Слово
отлично
СПАСИБО МНЕ ОТНОСИТЕЛЬНО ЛУЧШЕГО

Но в сочетании с этим его близость к наибольшим синонимам ответа (разговорный разговор = речь = = ... Я = я = я = я = ... =) часто путается, когда возникает существенная переформулировка вопроса (" Как мне учиться? «Вместо этого« мы учимся у человека? »).
  • Беда
  • Как вы можете видеть, когда вы пытаетесь использовать NIS для общения с человеком, у меня есть две блондинки: одна не может понять 15 фраз, а вторая много значит, но ничего не понимает.
Судя по описаниям Хабрахабра на других сайтах, не все сталкиваются с такой дилеммой. Поэтому возникает вопрос: где похоронена собака? Какой подход подходит для получения ANN, способного запоминать и выполнять не менее 100-200 фраз?