
Sergey
20.11.2017
07:27:01
Numba - JIT компилятор питон кода

Constantine
20.11.2017
07:27:03
в сравнении с чем?

Tony
20.11.2017
07:27:11
стойте
на питоне никто ничего не обучает

Google

Sergey
20.11.2017
07:27:26

Constantine
20.11.2017
07:27:33
прототипы пилят норм

Tony
20.11.2017
07:27:47
все обучение и подсчеты делаются на С/С++

Constantine
20.11.2017
07:27:53
исследовательский инструмент

Sergey
20.11.2017
07:27:57

Tony
20.11.2017
07:28:13
питон одну производную считает долго
а в обучении 10000 дифференциалов за эпоху
минимум

Drino
20.11.2017
07:29:48
пример приведи
Питонячий враппер над библиотекой на чём-то быстром вполне себе решает. TF тот же.

Sergey
20.11.2017
07:30:06
Ну не все ж нейронки обучают
Лог рег, написанный с использованием numba, не сильно уступает в скорости liblinear

Tony
20.11.2017
07:30:38

Drino
20.11.2017
07:30:43
Поэспериментировал, обучил новую модель, подкостылил сишный код, который всё сёрвит, и херак-херак в продакшн.

Google

Tony
20.11.2017
07:30:44
питон просто дергает

Drino
20.11.2017
07:31:22
Ну я и говорю - враппер.

Sergey
20.11.2017
07:31:53
Ну и простой пример
Допустим ты хочешь написать генетические алгоритмы(ну вдруг у тебя возникла задача дискретной оптимизации). TF сосёт по скорости по сравнению с просто питоном

Tony
20.11.2017
07:38:01

Kamalkhan
20.11.2017
07:39:26
Вы сейчас говорите про обучалку на CPU или GPU??

Tony
20.11.2017
07:39:42
про любую

Sergey
20.11.2017
07:40:27
На gpu аргументов за питон нет, там все равно c++ в итоге

Kamalkhan
20.11.2017
07:40:35
TF/Caffe по скорости на cuda не плохо так трейнинг делают

Nikolay
20.11.2017
07:41:00

Evgeniy
20.11.2017
07:41:03

Nikolay
20.11.2017
07:41:20
но это отдельный вид магии

Sergey
20.11.2017
07:41:39
Lua?)

Tony
20.11.2017
07:41:40
https://www.ibm.com/developerworks/community/blogs/jfp/entry/A_Comparison_Of_C_Julia_Python_Numba_Cython_Scipy_and_BLAS_on_LU_Factorization?lang=en

Nikolay
20.11.2017
07:44:33

Tony
20.11.2017
07:44:40

Nikolay
20.11.2017
07:44:41
питон - это обвязка на сишными либами

Google

Nikolay
20.11.2017
07:44:51
посмотри
я это знаю все, на что смотреть?

Tony
20.11.2017
07:44:51
ну

Nikolay
20.11.2017
07:45:02
ну
ну - питон шикарен в математике

Tony
20.11.2017
07:45:07
просто питон слаб в математике
для этого придумали numpy

Nikolay
20.11.2017
07:45:20
благодаря тому, что математика на самом деле работает на сишных либах внизу

Tony
20.11.2017
07:45:30
а еще в питоне массивы разнотипны

Nikolay
20.11.2017
07:45:38
ну перестань уже ерунду писать
https://docs.python.org/3/library/array.html

Sergey
20.11.2017
07:47:20
И даже листы не разнотипны

Tony
20.11.2017
07:47:46

Nikolay
20.11.2017
07:47:59
точно?
точно, лист - это массив указателей
есичо

Tony
20.11.2017
07:48:26
tmp = [1, 'a']
tmp
[1, 'a']

Nikolay
20.11.2017
07:48:39

Tony
20.11.2017
07:48:51
вы поняли о чем я говорю

Nikolay
20.11.2017
07:49:09

Nikita
20.11.2017
07:49:11

Tony
20.11.2017
07:49:33

Google

Tony
20.11.2017
07:49:39
на демоне

Nikolay
20.11.2017
07:49:57

Nikita
20.11.2017
07:51:00

Tony
20.11.2017
07:51:02
и ошибка там была на самом деле в том, что не хватало сишной либы, чтобы скомпилить

Nikita
20.11.2017
07:51:56

Nikolay
20.11.2017
07:52:18

Tony
20.11.2017
07:53:01

Admin
ERROR: S client not available

Tony
20.11.2017
07:53:13

Nikolay
20.11.2017
07:53:41

Tony
20.11.2017
07:53:53
потом установил зависимости и поставил либу

Nikolay
20.11.2017
07:53:56
неважно, стояла она или нет
молодец
и не говори в приличном обществе, что питон для математики плох

Tony
20.11.2017
07:56:25
в питоне очень медленнная математика, не зря же нампай придумали

Nikita
20.11.2017
07:56:50
что значит придумали нампай?

Constantine
20.11.2017
07:56:52
Ты наркоман?

Nikolay
20.11.2017
07:57:20

Google

Tony
20.11.2017
07:57:34

Nikolay
20.11.2017
07:57:51
питон - это тоже си, если что

Nikita
20.11.2017
07:58:02
с тем же успехом могу сказать, что СИ слишком медленный язык! Именно поэтому придумали АСМ вставки в него

Tony
20.11.2017
07:58:39
ладно

Nikolay
20.11.2017
08:05:38
а нампай это Си
кстати, самое забавное, что нампай - это как раз не особо си
это на львиную долю фортран

Kamalkhan
20.11.2017
08:09:59
При наличий AMD GPU, есть ли возможности запускать deep learning процессы трейнинга?
Про amd gpu именно какие не знаю, еще не прибыли. По скорости и по конфигурации, кто нибудь делал уже такое?

Nikolay
20.11.2017
08:10:44
но скорости джифорсов ты на ней не добьешься, насколько я знаю

Kamalkhan
20.11.2017
08:11:49
А для theano и caffe?
Pytorch?

Nikolay
20.11.2017
08:28:16
А для theano и caffe?
Pytorch?
https://github.com/pytorch/pytorch/issues/488 - все сложно
http://deeplearning.net/software/theano/tutorial/using_gpu.html - вроде умеет
https://github.com/BVLC/caffe/tree/opencl - экспериментальная ветка, давно не обновлялась

Kamalkhan
20.11.2017
08:28:41
И еще такой вопрос,
Кто нибудь смог поднять dense net на Caffe или на другом любом фрейме?

Fi
20.11.2017
08:53:13

Nikolay
20.11.2017
08:53:28

Fi
20.11.2017
08:53:51

Nikolay
20.11.2017
08:54:21
так-то проще взять cpython и не морочиться

Arslan
20.11.2017
09:22:31
Julia
Там вектора с 1 нумеруются