@bigdata_ru

Страница 166 из 327
Dan
25.10.2017
09:12:12
Коллеги, от наших партнёров OTUS пришли очень хорошие новости. Суть такова: они запускают собственный курс "Разработчик Big Data", который стартует уже со 2 ноября! А 26 и 31 октября в 20:00 - День открытых дверей этого курса, где можно пройти вступительный тест и получить бесплатное место (!!) на курс. Преподаватель курса Ксения Стройкова - программист отдела анализа данных в департаменте рекламных технологий Mаil, участвует в разработке хранилища данных для использования в рекламных сервисах, разработке системы для сегментирования аудиторий. Преподает курс “Алгоритмы интеллектуальной обработки больших объемов данных” в Техносфере Mail. В общем, если вы тянетесь к прекрасному миру больших данных, приходите на день открытых дверей 26 или 31 октября, и получите ответы на любые вопросы, про обучение и перспективы трудоустройства для выпускников. Подробности по ссылке: https://otus.pw/IIsXQ3OU/ или пишите мне, я, конечно на вообще все вопросы ответить не смогу, но сориентировать и задать вектор поиска ответа - точно.

Собственно, первый день открытых дверей уже завтра! И да, это Москва.

Ребята, важное дополнение !!! День открытых дверей онлайн. И обучение тоже онлайн!!! Для записи и прохождения курса необходимо зарегистрироваться и пройти вступительное тестирование, так как курс не расчитан для самых самых начинающих. Т.е. должен быть как минимум небольшой багаж релевантных знаний, но это можно уточнить уже непосредственно у них. И да, при успешном прохождении теста есть возможность попасть на курс совершенно бесплатно. Завтра и 31 октября. https://otus.pw/IIsXQ3OU/



Google
Dan
25.10.2017
09:26:02
Будут вопросы, пишите ?

Николай
25.10.2017
09:30:28
Есть видео с ней ?

Dan
25.10.2017
09:31:09
Есть видео с ней ?
Не у меня, но вероятнее всего где-то есть ?

Sergey
25.10.2017
09:32:30
Есть видео с ней ?
"есть видео, где она владеет Python"?

Henadz
25.10.2017
09:33:10
*шутка про питон владеет ею*

Николай
25.10.2017
09:33:11
Будут вопросы, пишите ?
А только один человек попадёт бесплатно или может быть много бесплатных мест?

Dan
25.10.2017
09:33:36
Пришло уточнение. @NikolayBrynskih Будет разыграно 4 бесплатных места на курс.

Alexandr
25.10.2017
10:00:36
розыгрыши от человека из мейлру

Интересно, кстати как мейлру относится к использованию бренда mail.ru в такой рекламе

Dan
25.10.2017
10:04:19
А мейлру это бренд?

Alexandr
25.10.2017
10:04:42
Кстати интересный вопрос

Google
Dan
25.10.2017
10:06:50


Devanya
25.10.2017
10:26:38
Is there any similar group with English translation?

Dan
25.10.2017
10:46:41
Lepus
25.10.2017
10:48:14
Что-то курс какой-то

Странный

Devanya
25.10.2017
11:38:18
Probably, but no one knows
Ok, ifever any new group is created in English, please notify. Thanks.

Николай
25.10.2017
11:43:42
Daniel
25.10.2017
11:48:08
London is a capital of Great Britain
способности твоей нейросети понятны, и не оч интересны по качеству результата

Duck
25.10.2017
11:48:21
Ok, ifever any new group is created in English, please notify. Thanks.
How about https://deep-learning-slack.udacity.com/ ?

London is a capital of Great Britain
Радушие рунета во всей красе.

Sergey
25.10.2017
11:53:19
Dan
25.10.2017
12:12:00
@bigdata_en

Daniel
25.10.2017
12:12:44
Dan
25.10.2017
12:13:48
Devanya @Eugene_Drake @bigdata_en for english

Frankly, I do not quite understand the purpose of creating such a group in English, but we can try. Why not?

Devanya
25.10.2017
12:30:20
How about https://deep-learning-slack.udacity.com/ ?
This is helpful, thanks for sharing

@bigdata_en
Helpful. Thanks for sharing

Vova
25.10.2017
13:31:15
Коллеги, хочу посоветоваться с вами по поводу стакинга моделей. Итак я выяснил, что RidgeRegression на моих данных в силу мультиколлинеарности стабильно и "достоверно" опережает любые деревья, да и вообще другие методы. Кроме одного. Интересно, что Elastic Net, с почти нулевым коэф. при метрике L1 (т.е. это тот же Ridge должен получиться! но совсем =0 нельзя изз градиентных проблем) даёт ещё лучше чем Ridge. Обратил внимание, что Elastic Net в этом "практически ridge" режиме даёт все коэффициенты >0. И даже опцию positive=True, включать не нужно. К сожалению у Ridge её нет (такой опции). В общем ElasticNet чуток обыгрывает Ridge при настройках, теоретически эквивалентных (но в обоих normalize=True, если False то ElsticNet не обыгрывает Ridge). ...................... Отошёл от темы немного. Вообщем я нашёл некие модели, которые работают на данных. Далее я хотел бы их стакнуть (например ElasticNet и RF). Чем их объединять? XGBoost? Изначальные фичи добавлять на вход второго уровня? Как их отбирать? Ведь потому и приходится использовать Ridge\EldaticNet, что высока коллинераность - стоит ли добавлять такие токсичные. Thx

John
25.10.2017
13:31:37
Ну про красавицу ты перегнул

Dan
25.10.2017
13:32:20
Ну про красавицу ты перегнул
Некрасивых женщин не бывает :-)

Google
Devanya
25.10.2017
13:32:40
Frankly, I do not quite understand the purpose of creating such a group in English, but we can try. Why not?
As I am unable to understand this language, hence I have requested to create in English. Thanks

Dan
25.10.2017
13:35:00
As I am unable to understand this language, hence I have requested to create in English. Thanks
It's no such big problem to create english group, so you can write both here and in @bigdata_en. Here is russian community mostly, there are international

Devanya
25.10.2017
13:36:08
Ok. Thanks for clarifying.

Andrey
25.10.2017
13:53:44
Коллеги, хочу посоветоваться с вами по поводу стакинга моделей. Итак я выяснил, что RidgeRegression на моих данных в силу мультиколлинеарности стабильно и "достоверно" опережает любые деревья, да и вообще другие методы. Кроме одного. Интересно, что Elastic Net, с почти нулевым коэф. при метрике L1 (т.е. это тот же Ridge должен получиться! но совсем =0 нельзя изз градиентных проблем) даёт ещё лучше чем Ridge. Обратил внимание, что Elastic Net в этом "практически ridge" режиме даёт все коэффициенты >0. И даже опцию positive=True, включать не нужно. К сожалению у Ridge её нет (такой опции). В общем ElasticNet чуток обыгрывает Ridge при настройках, теоретически эквивалентных (но в обоих normalize=True, если False то ElsticNet не обыгрывает Ridge). ...................... Отошёл от темы немного. Вообщем я нашёл некие модели, которые работают на данных. Далее я хотел бы их стакнуть (например ElasticNet и RF). Чем их объединять? XGBoost? Изначальные фичи добавлять на вход второго уровня? Как их отбирать? Ведь потому и приходится использовать Ridge\EldaticNet, что высока коллинераность - стоит ли добавлять такие токсичные. Thx
Изначальные не стоит добавлять

Vova
25.10.2017
14:00:24
ok

Mr.
25.10.2017
14:17:37
Any online data analysis job available?

Vova
25.10.2017
17:45:56
Коллеги, вот ещё тема. Есть понятная борьба с outliers. От робастных методик типа квантильных регрессий до выкидывания row в выборке по большому отклонению от некого baseline method и использованию очищенного data train для обучения какой то хорошей но чувствительной к outliers модели. НО. Всё это касается TARGETS, а если оаутлаеры встречаются в самих фичах?

Lev
25.10.2017
17:47:07
вариантов куча, нужно пробовать все и смотреть что работает, а что нет

Vova
25.10.2017
18:02:35
Можно пробовать всё то же самое, только брать фичу в качестве target.
я думал примерно в этом же направлении - фиттится некая дефлтная модель (ну baseline какой то). А по ней "реверсивно" ищутся оаутлаеры в фичах.

.
25.10.2017
19:35:58
Господа, пожалуйста, найдите константу C, а то я не умею, а дальше я сам.



Evgeniy
25.10.2017
19:36:46
приравняй интеграл к 1

.
25.10.2017
19:39:56
Это как?

Я пока не умею брать интегралы

Evgeniy
25.10.2017
19:42:28
Я пока не умею брать интегралы
тогда ты видимо не можешь решить эту задачу

либо вольфрам

/dev
25.10.2017
19:46:00
Я пока не умею брать интегралы
Этот интеграл ты должен во сне при температуре +40°С лежа на операционном столе при операции на мозге отвечать

.
25.10.2017
20:02:22
1/32
А среднеквадратическое отклонение? Мю=-2 у нас

Google
/dev
25.10.2017
20:05:44
Чем он отличается?
Плотность нормального распределения

.
25.10.2017
20:08:19
Благодарю

Herman
26.10.2017
03:29:51
Вы не против, если я ворвусь с немножко оффтопом? Я вот думаю: а разве по кол-ву знаний на единицу времени обучение, например, в ШАД от Яндекса может превзойти самообразование? Разве там есть источники каких-то уникальных знаний? Насколько я понимаю, как и во всех школах, там объясняют группе людей одинаковую инфу, несмотря на то что все они на разных уровнях и соображают с разной скоростью. И объяняют там не какую-то конкретную сферу на серьезном уровне, а максимально широко но не слишком глубоко(что является минусом лично для меня, посколько прогресс делают люди, которые хорошо разбираются в одной узкой сфере; но плюсом для тех, кто не определился чем хочет заниматься конкретно). Ради чего стоит идти в такие места? Насколько я понимаю, в них ходят люди которые живут по принципу "вот записался на курсы по английскому, теперь наконец начну его учить", несмотря на то что у них под рукой весь интернет.

Ivan
26.10.2017
03:36:01
мтк,: 1) получать знания ОТ ДРУГИХ легче, чем те же самые самому из кних/инета 2) есть технологии обучения (если мы говорим о норм курсах, а не шараш-конторах), к сожелению многие пишут книги/посты/сайты не имея ни малейшего опыта педпгогики (не говорю о выпускниках педагогических) за счет этого усложняется понимание 3) при проведении обучения преподаватель может оценивать как "входит" конкретная тема и преподносить следующей группе иным способом 4) преподаватель может внести корректировки, если теема/вопрос/... растолкованы/поняты не правильно или упущен какой-то важный/ключевой момент и сразу это исправить, при самообразовании (без стороней оценки) этого не будет 5) корочка - таки работодателям нужны люди с корочками (не потому что "хотят", а потому что так требует, а) законодательчтво б) заказчик в) конда в которой у каждого есть корочка - более привлекательна для клиента).

отдельно нужно сказать о курсах, которые нужны для получения очивки (большинство автошкол, например), где не дают знаний, а готовят получить сертификат, сдать экзамен, пройти собеседование...

...ну и всегда есть люди которые приходят не за знаниями, а за бумажками, которыми можно обвешать стену и обьявить себя полубогом или требовать ЗП космонавтов ))

офтоп off

Herman
26.10.2017
04:06:54
Думаю, никогда групповое обучение не сможет превзойти по эффективности одиночное, тем более сейчас, когда можно связаться с любым человеком и найти любую инфу. Будет эффективно только если вы этого делать не умеете

Viktor
26.10.2017
04:07:41
Такие курсы позволяют покупать возможность задать вопрос профессионалу и получить от него ответ. Можно это воспринимать как платную консультацию

Herman
26.10.2017
04:07:53
А хотя многие как раз и не умеют. По крайней мере из моего окружения

Ivan
26.10.2017
04:57:09
индивидуальные курсы - намного эффективнее групповых (но цена не совсем... точне, совсем не пропорциональна), но дже групповые в большинстве случаев эффективнее самообучения.

Vova
26.10.2017
05:45:36
thx, смотрю statsmodels

Evgeniy
26.10.2017
07:08:25
Is there any similar group with English translation?
yeah there is actually group where everyone post same things in English

?‍♂

Страница 166 из 327