
Ivan
15.09.2017
10:28:37
видимо, неверно сформулировал. l1/l2 регуляризация работает как надо, но гарантии понижения variance она не дает и не может дать, предельный случай-пример - домножение всех весов на константу. А так-то это, конечно, весьма маловероятный случай

Ivan
15.09.2017
10:29:20
ну так-то домножение всех весов на константу не дает того же результата
вообще говоря

Ivan
15.09.2017
10:31:23
зависит от активизационных функций, верно

Google

Andrey
15.09.2017
10:43:20
Каких еще активизационных функций? Еще раз: регуляризация не делает константного преобразования со всеми весами, каждый вес штрафуется по-своему

Ivan
15.09.2017
10:45:52
я говорю про гипотетический случай, можно же хоть немного вникнуть в обсуждение.
хм, для сети с инициализацией одинаковыми весами это единственно возможное поведение.

Andrey
15.09.2017
10:55:23
Пиши статью на arXiv о своем открытии

Quarc
17.09.2017
05:15:58
Привет всем! Кто нибудь в курсе (какие-нибудь статьи), относительно попыток практической реализации модели семантики слова естественного языка: например, к каждому объекту привязываются свойства, которые он может иметь, действия которые он может производить, действия, которые могут производиться над ним? Причем, по возможности независимая от естественного языка.

Artem
17.09.2017
07:37:16
А чему обучаться то?

Kaspar
17.09.2017
07:38:37
Бот — это всего лишь интерфейс

Herman
17.09.2017
07:38:53
извините, не удержался

Kaspar
17.09.2017
07:41:00
Ахаха все понятно как раз
С тобой

Artem
17.09.2017
07:41:22
А в чем проблема?

Henadz
17.09.2017
07:43:30
разве можно требовать от бота того, чего не умеешь сам? )

Google

Herman
17.09.2017
07:48:37
для этого они и нужны

Henadz
17.09.2017
07:49:14
ну тогда понятно, для чего он ему )

Smo
17.09.2017
07:53:56
А чему обучался то? "Хочу чтоб обучался" это не задача. Конкретика нужна.


Vova
17.09.2017
08:27:08
Привет всем! Кто нибудь в курсе (какие-нибудь статьи), относительно попыток практической реализации модели семантики слова естественного языка: например, к каждому объекту привязываются свойства, которые он может иметь, действия которые он может производить, действия, которые могут производиться над ним? Причем, по возможности независимая от естественного языка.
когда то, уже довольно давно, я помню восторги по поводу перспективы подобного анализа у преподов у которых я учился (а это на минутку было даже не в этом тысячелетии), строили что то, кажется на LISP, лингвистические деревья. И затухло. Потом пришло время нейронок Brainmaker,Brainshell - с ним было много надежд (тогда было в моде слово Data Mining и очень любили карты Кохонена) - все бросились анализировать... и опять затухло, наступило время деревьев-SVM- регрессий с регуляризациями, и так до Deep Learning. Я не летописец, может что и пропустил, но как то так. К чему это я - то ли действительно идея семантического нализа в Лиспе была фигней (или слишком неподъёмной задачей) или же её просто смыло волной новой моды. А с тех пор много волн было....


Quarc
17.09.2017
08:43:41
когда то, уже довольно давно, я помню восторги по поводу перспективы подобного анализа у преподов у которых я учился (а это на минутку было даже не в этом тысячелетии), строили что то, кажется на LISP, лингвистические деревья. И затухло. Потом пришло время нейронок Brainmaker,Brainshell - с ним было много надежд (тогда было в моде слово Data Mining и очень любили карты Кохонена) - все бросились анализировать... и опять затухло, наступило время деревьев-SVM- регрессий с регуляризациями, и так до Deep Learning. Я не летописец, может что и пропустил, но как то так. К чему это я - то ли действительно идея семантического нализа в Лиспе была фигней (или слишком неподъёмной задачей) или же её просто смыло волной новой моды. А с тех пор много волн было....
Быстро пробежался по нагугленному, и кажется начал понимать в чем тут проблемы: количество категорий потенциально бесконечно, возможность использования слов в переносных смыслах, опять же фразеологизмы непонятно куда сувать, и т.д. и т.п.


Vova
17.09.2017
08:44:21
Да, титаническая задача
я бы взялся и решил, но нужны инвестиции, время, команда... и я бы взялся только за русский язык

Quarc
17.09.2017
08:47:30
русский язык - в этом отношении, пожалуй один из самых сложных, особенно в отношении формализуемости грамматики и словообразования

Vova
17.09.2017
08:47:35
в каком то смысле туже задачу решил Dr. Робер Форд в West World по задумке сценаристов, и это и есть часть нашего мышления, мы же не лингвистическими правилами думаем, а сетью лингвистических смыслов (и образов)
по сути это задача хака части способа мышления, т.е. фундаментальная задача
русский язык - в этом отношении, пожалуй один из самых сложных, особенно в отношении формализуемости грамматики и словообразования
тут нужен гибкий подход имхо, делать так как делают дети - сначала брать готовые предложения as is, и добавить немножко правил (суффиксы, окончания...) , но только немножко, т.к. мы (люди) думаем готовыми кусками предложений, о суффиксах и предлогах задумываемся очень редко, и лишь для того, что бы запомнить что то готовое


Quarc
17.09.2017
08:56:47
Но к сожалению, машины вовсе не умеют думать: предложение "Миша моет машину" - имеет в составе слова, в базовой форме имеющие вид: "Михаил", "мыть", "машина"/"автомобиль", никакого иного способа, кроме прямого перечисления в словарной статье всех словоформ базового слова я придумать не смог.

Vova
17.09.2017
09:01:51
я думаю мы запоминаем готовыми кусками
"моет машину" для нас единое слово-образ
если мы впервые сталкиваемся с фразой - мы её разбираем (вот она - интеллектуальная работа, креатив, высшая функция), но далее она "хранится у нас" в виде готовых пирожков, типа "{username} моет машину"

Quarc
17.09.2017
09:09:37
Кажется, такая БД будет огромной, хотя дисковое пространство ныне дешево. Может ее всю запроектировать в виде: <Subject> <action> <object>?


Vova
17.09.2017
09:10:49
Миша моет машину это готовый образ, он довольно цельный и семантически (рёбра графа) связан с другими образами (в т.ч. с отдельными словами в той "части мозга"* куда мы лезем, что бы разобрать предложение-смысл если готового образа нет).
* - эта "часть мозга" можно выкинуть из исскуственного алгоритма или заменить чем то примитивным, просто команда должна насытить "базу" множеством готовых пирожков-образов. И вот тут возникает проблема - это миллиард образов, т.е. команда" оцифровщиков" должна быть большая и самое прикольное, каждый будет вносить своё индивидуальное видение, так что получившаяся семантическая сеть будет какой то неиндивидуальной, а местами м.б. и противоречивой (в области особо двусмысленных значений). И она а будет привязана к эпохе - люди то определённого возраста строить будут эту базу. Ну в общенм есть над чем подумать.

Google

Quarc
17.09.2017
09:17:14
Влияние эпохи, в этом случае, мне кажется неустранимым.


Herman
17.09.2017
09:30:08
ну это всё в целом
т.е. тебе такое не сделать

Валентин
18.09.2017
06:25:11
в продожение - может кто-то встречал размеченые словари где бы давалась оценка стилистики слова? Например - умница - разговроная лексика, дебел - обсценная лексика, конгруэнтный - научная и т.д.?

Artem
18.09.2017
06:25:37

Валентин
18.09.2017
06:26:22
ну круто... рассширю вопрос - в электронном виде.

Artem
18.09.2017
06:26:37
А вы думаете, толковые словари только на бумаге?

Валентин
18.09.2017
06:53:54
к стыду своему - ничего не нашел. Может вы сможете дать пару ссылок?

Ruslan
18.09.2017
07:23:03
Нкря ruscorpora.ru

Arthur
18.09.2017
07:23:45
Попробуйте скачать отсюда http://www.speakrus.ru/dict/

tonko
18.09.2017
07:23:54
Есть НКРЯ и opencorpora из больших, но я там не встречал подобной разметки

Arthur
18.09.2017
07:24:20
Правда, необходимо будет парсить )

Vyaches
18.09.2017
10:52:17
Народ, всем привет. Может кто-нибудь по numpy подсказать? Делаю матрицу array = 3х3 (стандартными питоновскими листами). Затем применяю np.matrix(array), и в принте она выводится нормально (так же, 3 на 3). Но вот shape у неё получается [1,3]. Почему? Как исправить? Спасибо.

Черный
18.09.2017
11:04:44
Если np.matrix использовать, такой же результат
Показывай код, что ли

Vyaches
18.09.2017
11:06:07
Там немного дичь на самом деле. Именно этот кусок прям очень не нравится, но пока что так. Другого варианта создать аппроксимирующую матрицу я не нашел. Ну и нампай опять подводит, хотя в целом все вроде правильно сделно.

Черный
18.09.2017
11:08:20
так это, а если сделать np.array(matrix) без всяких for?

Google

Vyaches
18.09.2017
11:08:32
все равно (1,17)
С этими размерностями у numpy вечно проблемы... Может кто-нибудь знает еще аналоги, которые могут считать обратную матрицу? scipy может, не?