
Tatiana
28.10.2017
21:28:18

Antonio
29.10.2017
09:08:03
Подскажите пожалуйста, есть ли аналоги обучения с подкреплением? Нужно обучить агента в частично наблюдаемой среде. Помимо обучения с подкреплением какие ещё существуют методы обучения для частично наблюдаемых сред?
Нашёл только "Эволюционные стратегии как масштабируемая альтернатива обучению с подкреплением"

Evgeniy
29.10.2017
09:12:18

Antonio
29.10.2017
09:13:44
ну альтернативы хочу знать, их плюсы и минусы, а я даже сформулировать запрос в гугл затрудняюсь, поэтому тут спросил

Google

Timofey
29.10.2017
10:27:24
Ну, почему не га?)
Ну да, сходится фигово, да покостылить с параметрами надо.

Antonio
29.10.2017
11:40:50
так значит ещё ГА подходят под эту задачу?
наверно переформулирую вопрос: Нужно обучить агента в частично наблюдаемой среде. Помимо обучения с подкреплением какие ещё существуют методы для игр с неполной информацией?

/dev
29.10.2017
12:01:18
Ну, почему не га?)
га — это не метод обучения. это метод оптимизации, херовый метод оптимизации

Timofey
29.10.2017
12:02:02
Ну, у него есть куча разновидностей
Хотя я не говорю, что он лучше/хуже
Ну, надо что-то оптимизировать, машинное обучение - это все единая оптимизация

/dev
29.10.2017
12:03:07
Это как на вопрос про SVD ответить "а что не градиентный спуск, у него разновидности есть"

Timofey
29.10.2017
12:04:03
Думаю, обучить в вопросе = найти хорошие параметры =оптимизировать
В Википедии в статье методы оптимизации куча вариантов

/dev
29.10.2017
12:04:49
Задача отдельно. Модель отдельно. Метод оптимизации отдельно. Всё вместе — это метод машинного обучения.
Думаю, вопрос про генетические алгоритмы надо на собеседованиях спрашивать. Как начнут говорит, что это методы машинного обучения — говорить, что перезвоним.

Google

Andrei
29.10.2017
14:44:41
Думаю, вопрос про генетические алгоритмы надо на собеседованиях спрашивать. Как начнут говорит, что это методы машинного обучения — говорить, что перезвоним.
Почти так, но если говорить о Data Science (наука), с точностью наоборот. Я видел неопубликованную работу, в которой аналог генетического алгоритма доработанный до методологии машинного обучения, использовался для построения модели обучения, уже в некотором смысле оптимизированой по определению (не знаю насколько хороши были результаты). Так что если нужен промышленные методы м.о., то нет, если платят за новые внутренние разработки, то да. Собеседование не самый лучший метод оценки в наукоемких сферах.

Andrey
29.10.2017
15:26:41
Машинное обучение это сжатие данных (обучающей выборки). Я в этом многократно убеждался
Ну, надо что-то оптимизировать, машинное обучение - это все единая оптимизация

Andrew
29.10.2017
15:27:04
Коллеги, подскажите какую NN выбрать для классификации несет человек вещь (рюкзак, пакет и тд) или нет?

Antonio
29.10.2017
22:26:37
обновился список, добавлено:
- лекции Виктор Кантор МФТИ Машинное обучение;
- книга Николенко С. И., Кадурин А. А., Архангельская Е. О. Глубокое обучение;
- видеолекции Лекторий МФТИ Линейная алгебра;
https://ru.stackoverflow.com/a/683632/1084

Andrey
29.10.2017
23:38:57
http://lectoriy.mipt.ru/course/LinearAlgebra#lectures

Максим
30.10.2017
10:53:50
Ребят, может кто подсказать, как в R при построении лог регрессии построить диаграмму, на которой будут параметр и его вес
То есть диаграмму построить по значимости переменных
Без всяких звездочек

Andrew
30.10.2017
11:54:53

Pavel
30.10.2017
11:58:20
Возьмите model$coefficients

Dan
30.10.2017
12:27:59
18 ноября в Санкт-Петербурге состоится Global Day of Coderetreat.
Что вас ждет:
• День поделен на 6-7 сессий по 45 минут.
• Программирование происходит в парах, которые перемешиваются после каждой сессии.
• Основная задача – написать свой вариант игры Life Джона Конвея, в каждой сессии используя что-то новое - платформы или языки программирования.
• Всех участников ждет интересная компания и кофе-брейк.
Coderetreat проводится во всем мире с 2011 года. Зачем? Чтобы научиться смотреть на проблемы с разных углов, а также прокачать свои навыки разработки ПО.
Приходите и зовите с собой друзей!
Регистрация по ссылке: https://epa.ms/SPB-GDCR
Ждем вас по адресу: улица Заставская 22а, бизнес-центр Мегапарк, офис EPAM.
Начало в 10.30, окончание в 18.00.
В общем-то, бесплатное крутанское мероприятие от Епама.
Петербург.

Mikhail
30.10.2017
12:29:41
?

Michael
30.10.2017
18:33:53

Lepus
30.10.2017
18:36:42
Методом множителей Лагранжа
Расширенным до ограничения типа неравенства

Руслан
30.10.2017
19:17:10
возможно https://ru.wikipedia.org/wiki/Симплекс-метод

Lepus
30.10.2017
19:19:27
на самом деле

Google

Lepus
30.10.2017
19:19:45
больше похоже на задачу-стеб

Michael
30.10.2017
19:22:32

Lepus
30.10.2017
19:22:53
кроме f_N - f_2

Michael
30.10.2017
19:25:55

Lepus
30.10.2017
19:26:06

Michael
30.10.2017
19:27:53

Lepus
30.10.2017
19:28:16
О_о да при чем тут тупость
там останется xp+yq - xp-yq -> max. Соответственно, первые два слагаемых максимизируем, вторые два минимизируем (ну или максимизируем со знаком +)
это можно сделать отдельно, т.к. все множители тут >=0

Michael
30.10.2017
19:31:27

Lepus
30.10.2017
19:34:34
а эти отдельные можно симплексом бахнуть
там область x,y — треугольничек

Алексей
30.10.2017
21:13:08
Ребзя. Есть приложение - vivino.
Фоткаешь бутылку вина и оно определяет чо за вино.
Как сейчас просто и надёжно распознавать что было сфоткано? Не абстрактно, а именно бутылку.

Akceptor
31.10.2017
03:50:41

Артем
31.10.2017
03:58:32

Antonio
31.10.2017
05:39:13
Нейросети уже умеют рисовать в стиле известных художников или изменять эмоции на фотографиях, но создавать реалистичные изображения лиц с высоким разрешением у них пока получается не так хорошо. Но теперь исследователи из NVIDIA продемонстрировали работу нейросети, которая создает практически неотличимые от фотографий изображения размером 1024 на 1024 пикселей, и выглядит это довольно впечатляюще
Подробнее на N + 1 (https://nplus1.ru/news/2017/10/30/nvidia-neural?utm_source=telegram&utm_campaign=2017)
вы только видео посмотрите, я в шоке

Jonas
31.10.2017
05:47:42
всем привет народ. Пишу на Python. Я использовал k-fold метод в KNN. То есть менял число ближайших соседей и определил лучшую модель. Сейчас я хочу сделать типа такого только для Random Forest. Только я не знаю какой параметр менять. Подскажите пожалуйста. Может n_estimators?

Alex
31.10.2017
06:02:59

Google

Jonas
31.10.2017
06:17:49
крутяк

Vova
31.10.2017
06:29:38

Andrei
31.10.2017
07:13:53
Источник http://blog.kaggle.com/2016/07/21/approaching-almost-any-machine-learning-problem-abhishek-thakur/
Перевод: http://datareview.info/article/universalnyj-podxod-pochti-k-lyuboj-zadache-mashinnogo-obucheniya/

Alex
31.10.2017
07:36:01
Вроде бы еще есть библиотечка для более точной настройки гиперпараметров.
http://blog.districtdatalabs.com/parameter-tuning-with-hyperopt

A
31.10.2017
13:40:25
Common Sense, Cortex, and CAPTCHA – Vicarious
https://www.vicarious.com/2017/10/26/common-sense-cortex-and-captcha/

Jonas
31.10.2017
13:44:06
А у вас в коллекции есть еще такие памятки? Для меня они будут очень полезны.

Dmitriy
31.10.2017
16:39:04
Ребят, всем привет. Ситуация такова, необходимо создать систему с использованием ml, которая будет выдавать тесты по вводимым мной данным(статьи, учебники). Подскажите существующие подобные кейсы, методы. Заранее, большое спасибо.

Andrey
31.10.2017
18:21:15
Тесты? Какие тесты?

Andrey
31.10.2017
19:02:52
Ребят, всем привет. Ситуация такова, необходимо создать систему с использованием ml, которая будет выдавать смысл telegram-сообщения по вводимому тексту этого сообщения. Подскажите существующие кейсы, методы. Заранее, большое спасибо

Evgeniy
31.10.2017
19:04:05

Antonio
31.10.2017
19:40:51
не подскажете пожалуйста, видел как то сайт где можно было отсортировать топ цитируемых работ по ML, топ комментируемых и т.д. (не только arxiv.org/)

Sergey
31.10.2017
20:06:00
http://www.arxiv-sanity.com