
Dan
25.08.2017
08:21:48

Knar
25.08.2017
08:29:15
видимо, я вхожу в этот список спрятавшихся эйчаров ? но очень нужен крутой специалист на должность года - https://angel.co/lobster/jobs/25496-machine-learning-computer-vision-engineer-for-a-uk-startup-in-moscow

Dan
25.08.2017
08:30:56

Knar
25.08.2017
08:34:31
Никаких агенств, мы с ними не дружим, я из Lobster ?И нам очень очень очень срочно нужен крутой специалист ?

Google

Dan
25.08.2017
08:43:51
И ведь ты действительно из Lobster ?
а еще хороший канал по изучению английского ведёшь ?
Навёл справки. Ребята, подтверждаю, очень годная вакансия. Кто хочет научить нейронки работать с бесконечным количеством изображений, и в последствии захватить мир - откликайтесь на вакансию!

Henadz
25.08.2017
08:49:29
жаль в Москве

Dan
25.08.2017
08:49:38

Henadz
25.08.2017
08:49:53

Dan
25.08.2017
08:49:59
- Central Moscow tech-hub Kl10ch 3 days a week + remote 2 days a week - flexible working in a young team

Mark
25.08.2017
08:56:34
Утро доброе судари и сударыни

tonko
25.08.2017
09:01:28
Прикольная статья от Оли Тележной про расистский ИИ. Единственное, код в оригинальном гитхабе читать удобнее.

Knar
25.08.2017
09:01:55

Mark
25.08.2017
09:03:06
А вы не ждете крутого специалиста, который станет крутым, но чуть попозже?))

Olya
25.08.2017
09:09:29

Google

Dan
25.08.2017
09:15:25

tonko
25.08.2017
09:16:01
Можно ссылку пожалуйста?
https://habrahabr.ru/company/microsoft/blog/336358/
ориг:
https://gist.github.com/rspeer/ef750e7e407e04894cb3b78a82d66aed

Mark
25.08.2017
09:18:17
Можно задать вопрос касательно математики? С какой стороны подходить к этому пункту при обучении бигдата, если твои знания математики сводятся к чему-то базовуму со школьных времен.
Бигдата только начал учить, не пинайтесь, если буду немного тормозить, пожалуйста)
С учетом того, что есть опыт разработки на Python и нужно влиться как можно быстрее)

Dan
25.08.2017
09:20:29

Olya
25.08.2017
09:35:36

Dan
25.08.2017
09:39:24
Моя точка зрения такова, что "расизм" он в голове. И чем больше о нём говорить, тем он больше проявляется, причем не от расистов, а скорее от жертв расизма. Негры в штатах самый яркий пример: они провоцируют, при этом вроде как "жертвы". Или геи, сейчас эта тема очень модная. Или равноправие женщин. Да, я не против равноправия женщин, не против геев (лишь бы без пропаганды этой), не против негров, но они, имхо, сами закручивают ситуацию все глубже и глубже
А ИИ это следствие коллективного разума большинства. И коли большинство расисты - значит это так и есть, и скрывать это запретами на ИИ глупо и неправильно.
Но это все имхо. Разумеется, всего лишь одна из миллионов точек зрения


Olya
25.08.2017
09:53:46
Моя точка зрения такова, что "расизм" он в голове. И чем больше о нём говорить, тем он больше проявляется, причем не от расистов, а скорее от жертв расизма. Негры в штатах самый яркий пример: они провоцируют, при этом вроде как "жертвы". Или геи, сейчас эта тема очень модная. Или равноправие женщин. Да, я не против равноправия женщин, не против геев (лишь бы без пропаганды этой), не против негров, но они, имхо, сами закручивают ситуацию все глубже и глубже
а вот с этим, в целом, согласна


tonko
25.08.2017
09:54:36
это мы еще по лгбт эмбеддинги не анализировали

yopp
25.08.2017
09:56:10
Моя точка зрения такова, что "расизм" он в голове. И чем больше о нём говорить, тем он больше проявляется, причем не от расистов, а скорее от жертв расизма. Негры в штатах самый яркий пример: они провоцируют, при этом вроде как "жертвы". Или геи, сейчас эта тема очень модная. Или равноправие женщин. Да, я не против равноправия женщин, не против геев (лишь бы без пропаганды этой), не против негров, но они, имхо, сами закручивают ситуацию все глубже и глубже
Ты вырос в другом культурном и социальном контексте, где почти сто лет назад всех сделали товарищами, без пола и расы.

Dan
25.08.2017
09:58:01
Надо бы изучить кстати вопрос...
Хотя о чем это я.... Римляне были первыми

Timur
25.08.2017
09:59:14

Dan
25.08.2017
10:00:29
а как же египтяне и евреи?)
Там был не расизм. И эти и те - семиты. Это внутренняя разборка, приведшая к порабощению одной группы людей другими

yopp
25.08.2017
10:02:47
Совершенно не важно по какому признаку люди делятся. Разница между условным «тогда» и условным «сейчас» только в доступности информации.
Раньше для тебя проблем дискриминации не существовало, потому что ты их не слышал и не попадал в дискриминируемые социальные группы.
Сейчас информация стала легкодоступна и проблемы получают очень большое медиаусиление. И теперь ты о них знаешь. Но это не значит что проблема появилась только сейчас, она всегда была.

Google

Henadz
25.08.2017
10:03:53

Dan
25.08.2017
10:04:04

yopp
25.08.2017
10:04:39
А так как ты всё ещё не особо дискриминируемая группа, тебе кажется что проблемы слишком преувеличены.
Например с однополыми браками проблема в первую очередь юридическая.
Люди просто хотят иметь равные с разнополыми парами права. Быть защищёнными при разводе. Иметь права в случае если партнёр в коме и так далее.

Tenni
25.08.2017
10:07:01
ну отключать от аппарата искусственного питания это бесчеловечно, то же убийство.

yopp
25.08.2017
10:07:43
Ну вот представь что у тебя нет юридического права решать, зато у родителей есть.

Tenni
25.08.2017
10:07:51
если так, да

Dan
25.08.2017
10:08:18
Вы правы, безусловно. Я поэтому и сказал, что это только моё имхо. Это не значит что я прав и точка, нет, я знаю что здесь у каждого своя правда, и она верная

Tenni
25.08.2017
10:08:49
я живу в регионе, город крайняя дыра в плане ИТ, но вообще тут расизма нет практически, хотя религий огромное множество.

Evgeniy
25.08.2017
10:09:28
Моя точка зрения такова, что "расизм" он в голове. И чем больше о нём говорить, тем он больше проявляется, причем не от расистов, а скорее от жертв расизма. Негры в штатах самый яркий пример: они провоцируют, при этом вроде как "жертвы". Или геи, сейчас эта тема очень модная. Или равноправие женщин. Да, я не против равноправия женщин, не против геев (лишь бы без пропаганды этой), не против негров, но они, имхо, сами закручивают ситуацию все глубже и глубже
втф из пропаганда геев?

Tenni
25.08.2017
10:09:31
это я к чему, сходу не особо понятно почему делят всех по признакам.
https://geektimes.ru/post/292277/

yopp
25.08.2017
10:15:23

Tenni
25.08.2017
10:16:04

yopp
25.08.2017
11:16:18
О какая штука: https://pair-code.github.io/deeplearnjs/index.html

Knar
25.08.2017
11:19:30

Максим
25.08.2017
11:45:07
Ребят, кто нибудь может поделиться лекциями ВШЭ "практический анализ данных и машинное обучение" ?

Vova
25.08.2017
11:52:27

yopp
25.08.2017
12:03:09
https://aeon.co/essays/the-hard-problem-of-consciousness-is-a-distraction-from-the-real-one
Это к вопросу о «представелении» «реального» «мира»

Google

Николай
25.08.2017
12:04:09

yopp
25.08.2017
12:04:17
Не могу найти статью про квантовую физику, где тоже очень много интересного про «реальный» «мир»

Dan
25.08.2017
12:08:24

Irina
25.08.2017
17:14:15
Всем привет! Как вам https://m.habrahabr.ru/post/336390/%5Biz-pesochnitsy%5D-data-science-pro-lyubov ?)) Мне кажется идея хорошая , а реализация спорная(

Yaroslavl
25.08.2017
17:29:00
Ни о чем

Ramil
25.08.2017
17:34:50
Перекос в распределении из за 100500 ботов, которые равномерно по словарю генерят имена и ставят статус в активном поиске для привлечения внимания.

Irina
25.08.2017
17:50:24

yopp
25.08.2017
21:09:23
Это ничем не отличается от индекса в словаре
Ммм. Вот тут теперь самое интересное: это получается последовательность индексов надо потом ещё преобразовать в матрицу one hot? Было "foo" => [1,2,2], стало [[0,1,0], [0, 1, 1], [0, 1, 1]] и потом ещё нормализовать под максимальную ширину?

Sergey
25.08.2017
22:23:04
https://ru.m.wikipedia.org/wiki/%D0%A3%D0%BD%D0%B8%D1%82%D0%B0%D1%80%D0%BD%D1%8B%D0%B9_%D0%BA%D0%BE%D0%B4

yopp
25.08.2017
22:35:42
иначе будет foo == fo или foo = off

Andrey
26.08.2017
14:47:13
Все зависит от того, куда потом данные пихать.
Посмотри, например, как работа с последовательностями реализована в keras

Maxim
26.08.2017
17:29:27
Пожалуйста, кто-нибудь может на пальцах объяснить, почему перекрестная энтропия лучше для функции ошибки нейросети в задачах классификации, чем, например, среднеквадратическая ошибка? Я прочитал вот это https://jamesmccaffrey.wordpress.com/2013/11/05/why-you-should-use-cross-entropy-error-instead-of-classification-error-or-mean-squared-error-for-neural-network-classifier-training/ , но оно совсем не убедило. Наоборот, судя по всему, перекрестная энтропия не даёт "штраф" за высокие компоненты выходного вектора соответствующие неверным классам, ошибка по этим компонентам вектора вообще равна нулю и обратно не распространяется (чтобы сделать выход неверных классов меньше). А среднеквадратическая ошибка дает производную по всем компонентам выходного вектора - нужный класс "усилить", а остальные "подавить".


Andrey
26.08.2017
17:38:58
Она лучше эмпирически (лучше работает на большом числе задач), а теоретическое обоснование простое - мы максимизируем вероятность правильного ответа, и перекрестная энтропия как раз имеет соответствующую вероятностную интерпретацию.


Maxim
26.08.2017
17:48:12
Ну что она практически работает лучше понятно, но "на пальцах" непонятно почему именно. Если без обращения к вероятностной теории, а просто глядя на распространение ошибки и получаемые градиенты. Перекрестная энтропия не дает ошибки для всех компонетнов выходного вектора кроме компонента нужного класса - с виду это "плохое" свойство. С другой стороны, в конце той статьи говорится, что дополнительно перекрестная энтропия дает более высокую производную когда выход модели близок к желаемому ответу (по сравнению с среднеквадратической ошибкой). Но если именно это свойство "хорошее", то можно сделать, скажем, вместо квадрата ошибки просто модуль ошибки или даже корень из модуля... Непонятно, в общем, чем она так хороша, перекрестная энтропия...


Sergey
26.08.2017
17:49:18
Привет. Был интерес сделать чат бота, который бы общался как человек, но после долгих поисков понял, что такого практически не возможно сделать. Только если собрать большую бд диалогов, и когда боту будут задавать вопрос, он просто будет искать из своей бд похожий, и отвечать следующим предложением, я правильно мыслю. Или все же есть что-то более интеллектуальное?

Roman
26.08.2017
17:50:29

Sergey
26.08.2017
17:51:43
Погугли NLP API.
А, там что, какой то интеллектуальный алгоритм ответов? Или просто большая бд?

Google

Roman
26.08.2017
17:52:54

Sergey
26.08.2017
17:52:56

Maxim
26.08.2017
17:53:54

Kaspar
26.08.2017
17:53:55

Sergey
26.08.2017
18:00:20