
Kamalkhan
09.01.2018
12:46:27
Но не помню где?
Если не ошибаюсь самые часто используемые - theano, tf, caffe были
Ну это так)

Google

Evgeniy
09.01.2018
12:50:41

Alexander
09.01.2018
12:51:12

Evgeniy
09.01.2018
12:52:37

Alexander
09.01.2018
13:01:49

Sergey
09.01.2018
13:02:33
gensim

Alexander
09.01.2018
13:03:27
gensim
и bigartm, да. Только Евгений сказал, что актуальных всего 2.
например, https://github.com/josephmisiti/awesome-machine-learning#python

Stanislav
09.01.2018
13:54:39
подскажите плиз! считаю сеть. на компе 24 ядра ксеоны. оасчет за 69 секунд. если подключаю куду (кватра 4000 с 256 ядер) расчет за 49 секунд. так и должно быть или можно еще что то выжать из системы?

Vlad
09.01.2018
13:57:29
а что это за время? что в него входит? форвард + беквард пас?

Stanislav
09.01.2018
14:00:07
сеть только форвард. 8 инпутов, 3 класса (классификаци). уровень один - 9 нейронов
просто я думаю, если начать накручивать уровни - будет совсем долго...
30к сэмплов

Google

Dmitry
09.01.2018
14:00:42

Stanislav
09.01.2018
14:01:06
блин... я нуб. как посмотреть? на убунте все крутится

Vlad
09.01.2018
14:03:12
это одна итерация считается 49 секунд? это както очень странно для одного слоя с 9-ю нейронами
htop открой и там видно загруженность cpu

Stanislav
09.01.2018
14:03:41
вроде итераций под 300 шт.
считаю вот этим: OpenNN
если считаю на CPU, загрузка 90%
почему-то не все 24 ядра грузит, а только 21-22

Vlad
09.01.2018
14:05:44
а какой размер батча?

Stanislav
09.01.2018
14:06:10
мммм. вот с этим пробелма. это настройку в библиотеке нужно искать?
или можно какой-то утилитой посмотреть?

Vlad
09.01.2018
14:06:43
незнаю, не юзал твою либу, загруженность гпу можно глянуть в nvidia-smi

Stanislav
09.01.2018
14:08:00
хм... $ nvidia-smi
NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running.
придется сначала машину почистить (((
пишут,
You seem to have a mix of driver components from several different drivers. This is a broken config.
Follow the steps in the cuda linux install guide to remove every last scrap of NVIDIA software from your machine:
http://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#handle-uninstallation
then stop, and read the above linked guide in its entirety.
Then pick either the runfile install method, or the package manager install method, and follow the instructio

Dmitry
09.01.2018
14:19:46
наверное что-то установлено через apt-get, а что-то через запуск скрипта
то есть нужно сделать apt-get remove nvidia* и дальше поставить все скриптами с сайта нвидии
впрочем по ссылке это и сказано :D

Andrey
09.01.2018
16:12:21
Берите мейнстримовые библиотеки и классические архитектуры для тестов. Иначе не понять

Stanislav
09.01.2018
16:37:28
мейнстрим весь на пайтоне к сожалению

Google

Andrey
09.01.2018
17:25:20
Да ладно! Tensorflow, mxnet - c++

Dan
09.01.2018
17:28:48
Еще задолго до пайтона мейнстрим был и есть на сях

Stanislav
09.01.2018
17:29:46
сейчас работаю на OpenNN. Посоветуйте на что перейти

Dan
09.01.2018
17:30:36
Только в 2013 на одной из конф наших (вроде Piter Py) выступал годный докладчик про ML на пайтоне в Беларуси с кудой. Так вот они очень сильно ругалися на производительность, и им приходилось в узких местах переписывать код на Си.
"Так в итоге скоро всё на Си перепишем" с улыбкой на лице он завершил доклад.
(имел в виду плюсы, конечно)

Stanislav
09.01.2018
17:33:32
ну я как бы и не сомневался, что пайтон - это не совсем то, что нужно для нагруженных вычислений...
просто только пару дней назад начал с нейросетями разбираться, а в активном использовании сейчас только С
все части проекта на нем
поэтому и искал что-то С-образное....
наткнулся на OpenNN. его вроде мне хватает, вопрос именно настройки железки
я не против пайтона, если что... просто не хочу переключаться... вспоминать и все-такое

Dima
09.01.2018
17:38:30
разве tensor Flow не на питоне?

Stanislav
09.01.2018
17:38:51
на нем. но там байндиги есть какие-то

Serhii
09.01.2018
17:50:28
О, раз тут люди есть спрошу - а для того чтоб работал бекпроп loss function обязательно должна быть дифференцируемой?

Alexandr
09.01.2018
17:52:37
adjust the weight of neurons by calculating the gradient of the loss function.
Да, градиент нужен
Но это программирование, тут и на ноль делить можно

Henadz
09.01.2018
18:05:37
юзают же)

Google

Serhii
09.01.2018
18:05:51
А если у меня в loss function вызов vgg например, это фреймворк продифференцирует эту самую Vgg по всем ее переменным, или не продифференцирует вообще? ?

Dmitry
09.01.2018
18:08:22


Stanislav
09.01.2018
18:10:16
а какой размер батча?
stas@ubuntu-Stas:~$ nvidia-smi
Tue Jan 9 21:09:37 2018
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 387.26 Driver Version: 387.26 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Quadro 4000 Off | 00000000:0F:00.0 Off | N/A |
| 40% 58C P0 N/A / N/A | 118MiB / 1983MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 10036 C ./nn 37MiB |
+-----------------------------------------------------------------------------+

Admin
ERROR: S client not available

Stanislav
09.01.2018
18:13:20
очень странно.... GPU-util 0%...
ниче не понимаю.... nvidia-smi показывает расход памяти карты, но GPU 0!! где грабли?

Kamalkhan
09.01.2018
18:19:47
Народ, у меня такой вопрос, если ли вероятность делать GPU training на простом лаптоп?
Acer aspire 5750. Nvidia geforce 650, CUDA available?
Поставив туда ubuntu 14.04???

Stanislav
09.01.2018
18:20:08
прям мою задачу решаешь )))
у меня Asus Zen с такой же картой
только убунат 16.04 наверно лучше, не?

Kamalkhan
09.01.2018
18:22:21
он быстрее работает у меня просто

Stanislav
09.01.2018
18:22:53
наверно пофиг какой LTS

Kamalkhan
09.01.2018
18:23:08
ну это мб да

Stanislav
09.01.2018
18:24:38
у меня вот примерно такой результат полчился прям вчера на ноуте: 30k сэмплов, сеть в один уровень для классификации из 8 инпутов в 3 класса. 9 нейронов. соответственно, только форвард. считала 2.5 минуты
вот на этом: OpenNN
куда 7.5 из репозитория убунты

Kamalkhan
09.01.2018
18:28:34
уу
ну норм по идее

Google

Stanislav
09.01.2018
18:29:30
но вот сейчас прикрутил на сервер куду 9.1 и что-то как-то не очень.... может железка старовата... квадра 4000
но вообще, на ноуте считать - это, наверно, зло... долго это....

Kamalkhan
09.01.2018
18:31:27

Stanislav
09.01.2018
18:31:40
понимаю и сочувствую

That's
09.01.2018
18:32:05
а кто-нибудь на амазоновских инстансах пробовал считать?

Stanislav
09.01.2018
18:32:36

Dmitry
09.01.2018
18:32:49
я считал. невыгодно

Kamalkhan
09.01.2018
18:32:59

Stanislav
09.01.2018
18:33:01
можешь подробнее?

Dmitry
09.01.2018
18:33:10
могу
вот тут есть бенчмарки http://timdettmers.com/2017/04/09/which-gpu-for-deep-learning/
https://i2.wp.com/timdettmers.com/wp-content/uploads/2017/03/performance.jpg?w=1417