
M.R
01.01.2018
14:49:47

Крис
01.01.2018
14:50:29

Andrey
01.01.2018
15:18:44
"Я б выучил русский только за то, что на нём писали Пушкин, Гоголь, и чат по машинному обучению..."

Крис
01.01.2018
15:30:15
Ахах

Google

Vladimir
01.01.2018
19:11:59
Добрый день
Поделитесь, пожалуйста, нет ли у кого-нибудь позитивного опыта установки Tensorflow gpu на виртуалке Ubuntu (Virtualbox), host-система Windows 8
8.1
главная проблема в том, что Ubuntu не видит GPU

Artem
01.01.2018
19:15:12
https://habrahabr.ru/post/137327/

Vladimir
01.01.2018
19:17:00
да, это я вроде бы понял. Но в manual'е Virtualbox написано, что PCI paththrough - это фича для "Linux hosts"
пардон passthorugh

Artem
01.01.2018
19:17:53
недосмотрел у тебя виндовс в качестве хоста

Lepus
01.01.2018
19:18:03
Да, проблема в том, что хост — винда
а не наоборот

Artem
01.01.2018
19:18:18
уже увидел
тогда нужно прощаться с виндой

Google

Vladimir
01.01.2018
19:19:13
ну тогда уж систему с двойной загрузкой делать )
но это печаль
других вариантов нет?
ок, еще есть вариант ставить это все прямо в винде вроде

Artem
01.01.2018
19:20:03

Vladimir
01.01.2018
19:24:02
ок, сформулируем вопрос по-другому :). Приходилось ли кому-то ставить это все безобразие под виндой. Инструкция есть https://sites.google.com/site/ivanhuertacasado/installing-keras-theano-tensorflow-with-gpu-windows
Но интересно наличие прецедента, кто-то пробовал, это работоспособно вообще? :)


Serhii
01.01.2018
21:30:32
Ну я на 10 когда то ставил тф но без гпу
Но не вижу причин почему с гпу не заведётся
Сап, млчан. Пытаюсь запилить Super Resolution GAN в керасе, и столкнулся с такой штукой - во всех работах в D и G используется BatchNorm, но у меня с ним ничего не вышло от слова совсем. G с ним начинает выдавать мусор и никак не тренируется, а вот D хорошо тренируется, но ровно до тех пор пока нет полной модели (d_on_g, combined model). Как только на одном батче запускаю combined_model.train_on_batch, при том что D.trainable = false, дискриминатор схлопывается и начинает на любой инпут выдавать 1. Я подозреваю что это как то связано с внутренними параметрами батчнорм слоя, которые обновляются во время тренировки всей сети, а как обойти это идей нет совсем :( может кто подскажет варианты? Заранее спасибо


Evgeniy
02.01.2018
06:43:05
Сап, млчан. Пытаюсь запилить Super Resolution GAN в керасе, и столкнулся с такой штукой - во всех работах в D и G используется BatchNorm, но у меня с ним ничего не вышло от слова совсем. G с ним начинает выдавать мусор и никак не тренируется, а вот D хорошо тренируется, но ровно до тех пор пока нет полной модели (d_on_g, combined model). Как только на одном батче запускаю combined_model.train_on_batch, при том что D.trainable = false, дискриминатор схлопывается и начинает на любой инпут выдавать 1. Я подозреваю что это как то связано с внутренними параметрами батчнорм слоя, которые обновляются во время тренировки всей сети, а как обойти это идей нет совсем :( может кто подскажет варианты? Заранее спасибо
какой фреймворк

Herman
02.01.2018
06:58:13
Ml от coursera - там только теория?
Для практики тогда кегл думаю будет норм?

Andrey
02.01.2018
07:36:03
Все курсы - это только теория. Причём теория, расходящаяся с практикой на 8-12 порядков

Herman
02.01.2018
07:37:30

Andrey
02.01.2018
07:39:49
Что она не работает на практике это значит

Evgeniy
02.01.2018
07:48:13

Herman
02.01.2018
07:50:40
лолшто
Я тоже не понимаю как хирург может резать аппендицит не зная где он находится
Грубо говоря

Andrey
02.01.2018
07:51:07

Evgeniy
02.01.2018
07:51:40

Google

Andrey
02.01.2018
07:52:03

Herman
02.01.2018
07:53:06
Хотя я не думаю что без теории можно эффективно мл заниматься

Andrey
02.01.2018
07:56:32
Теория нужна, но её нормальной нет

Evgeniy
02.01.2018
08:01:57

Andrey
02.01.2018
08:36:06
Теория Вапника-Червоненскиса ошибается на 8 порядков в предсказании размера обучающей выборки для обучения с заданной точностью, и не может объяснить, почему лес лучше дерева
А оттуда все эти учения о переобучении
Реальные знания можно получить только через личный опыт, по знакомству, в чате, через конференции всяких Avito/Sberbank

Evgeniy
02.01.2018
08:40:48

Andrey
02.01.2018
08:52:04
Короче прочитай по диагонали любую книгу/курс по ML, но особо ей не доверяй. И вперёд решать задачи

Kek
02.01.2018
08:54:11

Igor
02.01.2018
08:54:16
ну если совсем не умеешь в самообучение, то да
Если бы так было - то с университетов бы выпускались сразу senior dev-ы, нет?
А вообще, кажется, что собеседник просто пытается сказать, что работа отличается от того материала, который дают в курсах.

Andrey
02.01.2018
08:54:42
Все теоретические замути пропускай, все выжимки из реального опыта запоминай

Evgeniy
02.01.2018
08:55:27
так же как и прочие заявления типа "курсы по мл дают теорию отличающуюся от реальности на 8 порядков" и подача того что теория вапника непременима к dl как откровения

Andrey
02.01.2018
09:08:37
Я проходил "Операцию Эндрю Ы" лет 5 назад, может за это время что нибудь изменилось
Недавно посмотрел пару лекций от МФТИ, там было что-то уже близкое к реальности

Evgeniy
02.01.2018
09:09:47

Andrey
02.01.2018
09:10:56
Теория за это время не продвинулась нифига

Google

Andrey
02.01.2018
09:11:55
А изучать каждую отдельную нейросеть можно и без курса

Admin
ERROR: S client not available

Evgeniy
02.01.2018
09:12:19
https://stats385.github.io/
например все что в этом курсе ты конечно знал пять лет назад?)

Andrey
02.01.2018
09:15:23
Так я этого и сейчас не знаю

Evgeniy
02.01.2018
09:16:00
ну я и не сомневался?♂

Andrey
02.01.2018
09:16:37
Так они тоже начинают с того, что нет нормальной теории

Evgeniy
02.01.2018
09:17:01
так ты начал с того что все курсы это теория которая ошибается на 8 порядков
впрочем спор о том зачем что-то знать если можно ничего не знать и получать бабки древний как мир и поддерживать его не вижу.
А вот чуваков которые три шаблонных метода без понимания применяют к любой задаче и на этом заканчивают вижу много)

Andrey
02.01.2018
09:20:23

Igor
02.01.2018
09:22:35

Andrey
02.01.2018
09:25:11

Evgeniy
02.01.2018
09:26:40

Igor
02.01.2018
09:27:34

Evgeniy
02.01.2018
09:28:21

Igor
02.01.2018
09:30:18
Мне казалось, что большую часть работы аналитика еще состоит в отборе фич, очистке данных, понимаю предметной области, поэтому, обычно, человек с N годами опыта практической работы, будет, наверное, лучше человека с N годами академической деятельности

Andrey
02.01.2018
09:31:11

Herman
02.01.2018
09:32:21

Google

Andrey
02.01.2018
09:34:00
Потом пришлось сделать свою теорию для своей конкретной задачи, и оно заработало

Herman
02.01.2018
09:35:07
Гений

Maksym
02.01.2018
09:35:38

Evgeniy
02.01.2018
09:37:37
если можно, с ссылками)


Igor
02.01.2018
09:38:04
ну если бы можно было за такое время стать топ экспертом, то это было бы скучно
That being said any time spent at a company, successful or not, is invaluable. One of the most important things you should look for in your first data science job is a collaborative environment where you can learn a ton from your colleagues. In industry, every minute of your time is valued. While you should approach every problem with initiative, you should never expect to sort out an issue all by yourself. When hunting for a job, you should definitely prioritize the team that can provide the best learning experience during your first year outside of academia.
The most sought-after hard skills, statistics knowledge and coding ability, make up the foundation of a good data scientist’s toolkit. The less definable skills we pick up as scientists-in-training during the PhD program are equally as important, like having the ability to look at data and understand bias, understanding validation, problem solving with messy data often created by someone else, working in a team, and communicating effectively to present results.


Andrey
02.01.2018
09:38:44
И в статьях часто ключевые детали не раскрывают