@bigdata_ru

Страница 217 из 327
Pipito
20.01.2018
02:21:10
я так старался передать всю боль

спасибо вам)

я чуть ноут не выбросил

у меня так горело с этого курса

Google
Pipito
20.01.2018
02:24:10
настолько туго он сначала заходил, зато потом норм, мне кажется лучший курс по матану для ML

и Воронцов классный

Donaudampf
20.01.2018
02:49:54
курс от яндекса/мфти на курсере - это не курс по мл, а тупо обзор библиотек и методов

смысл в нём есть только как в дополнительном материале

Timofey
20.01.2018
04:36:18
Это шедевръ

Пенкуздуй
20.01.2018
05:07:21
Уважаемые, подскажите в каком направлении смотреть, тема такая: физическое разделение базы данных. Я так понял это разделение между дисками, как это работает? не могу найти в интернете.

Egor
20.01.2018
06:21:33
что за штука, которую он не выводит?
Проецирование n мерного пространства на k мерное, где k < n. Для уменьшения количества фич

Kirill
20.01.2018
06:27:22
Время. Очень мало времени. Я каждый день занимаюсь математикой по 2 часа + 8 или 10 часов занимает работа. Ну и в целом, думаю если буду сразу с наскоку все смешивать, то тупо каша будет, да и мозгу просто будет сложно все уж усвоить. А я хочу все таки хорошо усвоить материал а не просто пробежаться по нему галлопом

Artyom
20.01.2018
07:14:17
скоро курс от ODS будет, его можно посмотреть

какие-то материалы-тетрадки можно посмотреть в нашей группе https://www.facebook.com/groups/gewissta

я там даю советы, как выстроить самостоятельно обучение по ML. Главное - научиться формировать цепочки логических рассуждений

Google
Artyom
20.01.2018
07:29:22
да добавил)

Валентина
20.01.2018
07:29:50
да добавил)
Спасибо

Kirill
20.01.2018
07:48:26
скоро курс от ODS будет, его можно посмотреть
ну я читал на хабре про анонс курса, просто меня немного спугнуло что нужен хороший уровень математики, который я пока не набрал

а так, в ODS в слак уже добавился)

20.01.2018
07:59:47
Кстати, а про стюарда что скажете?



Artyom
20.01.2018
08:05:53
не читал

20.01.2018
08:06:52
Знакомый инженер, который сидит рядом и учился в штатах сказал, что они по Зоричу учились

20.01.2018
08:24:27
Реальная история, я не троль.жпг

Хм, забыл название универа, но могу снова спросить

Rushan
20.01.2018
08:25:15
спроси, плес

уж очень интересно

обсудим с коллегами

Egor
20.01.2018
08:25:43
Зорич же неплохой учебник

Rushan
20.01.2018
08:26:29
если его юзают в лиге плюща, значит это топчик

кто ещё хорош в ИТ? Корнелльский и калтек?

Boojum
20.01.2018
09:51:24
Неплохая книжка 1914 года :)

Google
Rushan
20.01.2018
09:52:22
Ещё ньютон с лейбницем норм

Stanislav
20.01.2018
11:34:31
начал читать.... не оторваться!!! Спасибо!

Oleg
20.01.2018
13:24:56
коллеги, подскажите, где можно взять датасет с датами рождения и смерти?

crux
20.01.2018
13:46:18
Сгенерить?

Pipito
20.01.2018
13:47:15
Magic
20.01.2018
13:47:38
Pipito
20.01.2018
13:48:00
Viktor
20.01.2018
13:48:44
Пропарсить статьи википедии связанные с людьми. Там указываются даты рождения и смерти. Пропарсить фото кладбищ - там тоже эта информация указана.

Pipito
20.01.2018
13:49:10
в mental health databases точно будут такие показатели в датасетах

Magic
20.01.2018
13:50:15
или тут https://www.cdc.gov
Не мне реплай делаете)

Pipito
20.01.2018
13:50:28
Не мне реплай делаете)
простите, не заметил

Admin
ERROR: S client not available

Stanislav
20.01.2018
15:32:23
Все привет! может кто-то подскажет? собираю данные для классификации. Три класса. Ошибка между 1 и 2 или 2 и 3 не критична. А вот между 1 и 3 - критична. Причем, несимметрично... т.е. если вместо 1 получу 3 - еще так сяк, а вот если вместо 3 получу единицу - плохо... вопрос такой: может имеет смысл сделать дисбаланс в датасете? если имеет, то в какую сторону, т.е. каких больше собирать? (UPD. про тресхолд знаю, просто может так делают?)

Pipito
20.01.2018
16:48:55
Спасибо!
не за что)

Stanislav
20.01.2018
16:53:53
Спасибо!

Паша
20.01.2018
17:04:28
Спасибо!
https://stats.stackexchange.com/questions/96081/how-do-i-specify-a-loss-matrix-in-rpart

Типа такого

Google
Stanislav
20.01.2018
17:05:17
о! спасибо огромное!

Паша
20.01.2018
17:06:07
В общем, loss matrix) пожалуйста

Stanislav
20.01.2018
17:11:45
вот вроде нашел https://mlr-org.github.io/mlr-tutorial/release/html/cost_sensitive_classif/index.html

не знаю, есть такое в dlib...

Паша
20.01.2018
17:15:42
Да, про это и говорил. С dlib не работал, но если там можно самому вводить оценку ошибки, то можно самому это реализовать. Но не могу быть в этом уверен, так как с ним не работал

Stanislav
20.01.2018
21:07:47
кстати, прям пунктом 2 они предлагают ребалансировку семплирования, если нельзя применить кост-контроль. Интуиция не подвела )

Vyaches
21.01.2018
10:26:41
Всем привет. Подскажите плз как при помощи деревьев делать предикт на основе и категориальных(категория товара) и не категориальных фичей(цена товара)?

Drino
21.01.2018
10:32:36
Drino
21.01.2018
13:45:30
Можешь статью скинуть по бусту?
https://stackoverflow.com/questions/34265102/xgboost-categorical-variables-dummification-vs-encoding Вот вопрос на стэковерфлоу с названиями методов для кодирования искаропки

Vyaches
21.01.2018
13:48:13
Спасибо

frankna70
22.01.2018
02:14:14
anyone ...do you speak in english ?

Magic
22.01.2018
02:23:25
Yes, but English group here @bigdata_en

frankna70
22.01.2018
03:53:00
nice

thank you so much. .

Roman
22.01.2018
09:12:13
CNTK: études in F# (sequential models) · http://brandewinder.com/2018/01/14/CNTK-etudes-sequential-model/

Страница 217 из 327