@bigdata_ru

Страница 271 из 327
Vova
11.05.2018
09:37:04
CPython это стандартная реализация питона
я букву P по ошибке написал

Evgeniy
11.05.2018
09:38:21
я букву P по ошибке написал
все равно все питоновские либы на низкоуровневых языках

Evgeniy
11.05.2018
09:39:48
именно это я и написал
ну тогда странный аргумент

Google
Evgeniy
11.05.2018
09:40:05
"если бы было не так, как есть, то было бы плохо"

dot
11.05.2018
10:23:36
Добрый день , скажите что означает steps в модели ?

Dan
11.05.2018
10:33:02
Что касается вакансий, вы можете попробовать найти релевантную вашей вакансии группу здесь: https://github.com/goq/telegram-list/#%D0%92%D0%B0%D0%BA%D0%B0%D0%BD%D1%81%D0%B8%D0%B8-%D0%B8-%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%B0

Елена
11.05.2018
12:24:15
Подскажите, как лучше импортировать xgboost модель в pmml

есть у кого-нибудь опыт экспорта pmml модели в spark 1.6.* ?

Mikle
11.05.2018
13:40:03
Ребяьт есть у кого на примете сообщества, чаты по text minig ?????

Dan
11.05.2018
13:41:26
Ребяьт есть у кого на примете сообщества, чаты по text minig ?????
Нет, но если найдёшь - дай знать, я добавлю в github.com/goq/telegram-list

Гхм. Я совсем забыл, мы же создавали еще осенью 2016 года группу по Natural Language Processing и text mining: https://t.me/nlp_ru Если кому это актуально и релевантно - милости просим

.
11.05.2018
18:01:46
Можно глупый (почти) абстрактный вопрос? Есть сеть из одного LSTM слоя на 64 юнита. Генерирует посимвольно текст, если это имеет значение, то есть инпут_шейп от 50 до 100. Вопрос: Почему иногда сеть начинает обучаться нормально и точность стабильно растёт, а иногда топчется на маленькой точности и никак не развивается? (Данные одни и те же) Общую концепцию ЛСТМ себе представляю. Сам думаю, что это как-то связано с фогет-гейтом, но не нашёл в keras возможности ручками на него влиять. Запрос для гугла не придумал. Спасибо за ответы!

49060
11.05.2018
18:11:21
В керас вообще мало на что можно ручками влиять

Ручками это tf и ему подобные

.
11.05.2018
18:12:59
Ручками это tf и ему подобные
Тф в своё время кстати отпугнул именно тем, что многое руками делать надо) А есть идеи, с чем связана моя проблема? Или хотя бы в какую сторону копать

Sergey
11.05.2018
18:26:04
Прежде всего

Google
Sergey
11.05.2018
18:26:32
Керас имеет очень большие проблемы с версиями. Часто одни и те же модели с одинаковыми параметрами работают по разному на разных версиях, аналогично с обучением

Что выглядит странно, но тем не менее постоянно встречается

Во вторых это может быть просто из-за сида, у многих нейросетей есть шансы просто свалиться при обучении

У ГАНов такое называется mode collapse

.
11.05.2018
18:27:45
Запускаю на google colab, так что вряд ли это из-за версии

У ГАНов такое называется mode collapse
А за вот это спасибо, щас погуглю

Dan
11.05.2018
18:35:15
Вообще ад, что придумали... https://proglib.io/p/tensorflow-js/

Arcady
11.05.2018
18:49:13
кстати гугль пилит обертку си апи для ноуд жс

Dan
11.05.2018
18:55:17
Гугль грозился выпустить в open source нейронку для создания нейронок.

Arcady
11.05.2018
18:57:02
что это? га?

Evgeniy
11.05.2018
19:00:56
Arcady
11.05.2018
19:17:20
spiral? какое имя то?

Dan
11.05.2018
19:18:40
Пытаюсь найти пруф, и вспомнить название хотябы

Arcady
11.05.2018
19:19:18
после импалы они вроде за спирал взялись. типа рл плюс ганы

Dan
11.05.2018
19:19:19
AutoML вот

Arcady
11.05.2018
19:19:28
а

Dan
11.05.2018
19:19:29
метанейронка

и NASNet

Но вторая это вроде свёрточная

Evgeniy
11.05.2018
19:20:49
есть тысячи их же

Google
Dan
11.05.2018
19:22:06
метанейронок?

Alex
11.05.2018
19:25:03
ту которая месяц на 300 гпу работала? ?
а кому-то кроме гугла нужна мощность на 300 гпу, например в аренду на недел.? есть дружественные майнеры, подумывающие ещё о диверсификации

Evgeniy
11.05.2018
19:55:01
метанейронок?
ну разных методик

Dan
14.05.2018
08:38:46
#образование #обучение С чего начать обучение Machine Learning, если бесконечно далёк от этой темы? Нужно как можно больше практиковаться. Наши коллеги из SkillFactory прислали мне информацию о курсе, который полностью состоит из практики и актуальных кейсов. Ребята делают ставку на практику и решение конкретных боевых задач. Теорию вы и в интернете найдёте :) Курс ведёт руководитель отдела аналитики Mail.ru! «Практический Machine Learning» от SkillFactory — https://goo.gl/V9v9BH



Витя
14.05.2018
08:59:03
Всем привет, проходил кто-нибудь курс от шад и вшэ по ml? Стоит ли сильно сконцентрироваться на теории которую они дают, довольно сложно воспринимаема...

alex
14.05.2018
09:01:43
Для уровня script kiddie - нет, для более глубокого понимания механизмом и возможных проблем стоит

Саттэ
14.05.2018
09:01:50
Всем привет, проходил кто-нибудь курс от шад и вшэ по ml? Стоит ли сильно сконцентрироваться на теории которую они дают, довольно сложно воспринимаема...
Теория там и правда муторная. Если хочется более понятных концептов и понимать технологию можно anrdew ng, если хочется анализа данных и простых концептов и объяснений лекции с ods

Admin
ERROR: S client not available

Ilya
14.05.2018
09:03:33
Проходил, правда, давно. Теория и практика в ML довольно далеко отстоят друг от друга. Но понимать, откуда ноги у методов растут, безусловно, полезно

Витя
14.05.2018
09:08:34
А что думаете о machine learning mastery, знаком кто-то?

Vova
14.05.2018
09:11:12
Коллеги, существуют ли prod-ready реализации RandomForest в python которые нативно переваривают missing values (не требуется их эксплицитно импьютить) ? Я задаю вопрос т.к. у меня есть time series задачка, где огромный объём данных (~30%) это missing vаlues, и импьютить средними, медианами или даже MICE, интуитивно - очень не кошерно. Нужны методы которые нативно переваривают (XGB вроде переваривает sparse, но есть опасение что внтури он просто импьютит по средней или медиане). Спасибо

Dan
14.05.2018
09:36:07


Ilya
14.05.2018
09:36:45
То есть то, что в какой-то реализации эти missing values как-то всё равно обработают вас не смущает? )
в принципе для дерева не обязательно как-то предобрабатывать значения. Теоретически нода же может в разбиении просто задействовать условие missing/not missing. Но как именно это реализуется, конечно, надо проверять

Артем
14.05.2018
09:40:08
Меня интересуют методы, работа с missing values в которых нативно встроена в способ предсказания, а не является импьютингом.
ну, вариантов немного имхо. Или они делают дамми-переменную или свой импьютинг. Разница только в том, что в готовом алгоритме это черная коробка с которой ничего не сделать, а в алгоритме без импьютинга вы этот параметр контролируете и можете влиять на качествомодели. Первый вариант быстрее, второй надёжнее. Сугубо ИМХО )

Vyaches
14.05.2018
09:44:16
Ахаха. Это откуда?)

Dan
14.05.2018
09:44:29
Ахаха. Это откуда?)
В соседнем чатике кинули, я решил поделиться

Google
Dan
14.05.2018
09:44:39
Как говорится, sad but true

Vova
14.05.2018
09:50:06
тут я вычитал, что xgboost с бустром gblinear, импьютит missing values ... вы не поверите - нолями. Понятно что конкретно бустер gblinear это всего лишь Elastic Net Linear Regression (ну то есть +L1+L2) по сути (и отчего бы не воспользоваться любым удобным Elastic Net, коли нужно и не трогать вообще деревья) , но как то слишком банально... А вот в gbtree там как то похитрее с Missing values...

Артем
14.05.2018
09:54:19
имхо он должен сразу ошибку выкидывать, а не думать за разработчика. Если алгоритм требует числа, надо давать или преобразоывать числа, а не кормить что попало, в надежде что схавает. За это не очень люблю R, кстати. Там много библиотек в магией.

Vova
14.05.2018
10:11:44
имхо он должен сразу ошибку выкидывать, а не думать за разработчика. Если алгоритм требует числа, надо давать или преобразоывать числа, а не кормить что попало, в надежде что схавает. За это не очень люблю R, кстати. Там много библиотек в магией.
полностью согласен. Ну вы же знаете... все втайне любят black boxing, засунул - вынул. А чо там внутри - да хз. Так и тут - народ не хочет морочится с missing values, есть запрос, ну разрабы и вбили туда какой то stage с импьютингом. Меня то интересует, так сказать, органический подход. Т.е. такой подход в котором алгоритм, как вы сказали, "не требует числа".

Ilya
14.05.2018
10:15:37
Полагаю, что если вы заимпьютите на infinity, это решит проблему. Если, конечно, вы не собираетесь крутить-вертеть пространство после импутации.

Alex
14.05.2018
14:40:02
Кто может подсказать годную книгу по предобработке изображений для последующего анализа? Фильтры всякие и т.д

Dilshod
14.05.2018
19:54:56
Здравствуйте, кто-то работал с Fake Face Detection?

Max
15.05.2018
13:12:39
Всем привет, начал изучать МЛ и возник такой вопрос. Когда у нас есть набор данных и их свойства то все понятно. А как происходит обучение когда надо группировать по какому то сво-ву. Те например чемпионат по футболу и есть свойства команд и результат стала команда чемпионом или нет. И получается что все данные в кучу не получится спихнуть тк сравнивать надо команды только в одном году а не все в куче, но и чтобы результат был лучше надо сравнивать за многие года.

Страница 271 из 327