@ru_deep_learning

Страница 39 из 52
Ivan
04.09.2017
20:05:16
Там написано что она основана на PixelCNN. Открываешь PixelCNN там тоже нет схемы, только блок.

Konstantin
04.09.2017
20:06:05
Тык вроде реплики есть у обоих сеток на гитхабах

Ivan
04.09.2017
20:08:23
Да, действительно есть.

Google
Ivan
04.09.2017
20:10:46
Невнимательно посмотрел, даже в публикации есть схема.

Andrey
05.09.2017
03:07:22
Спасибо! А никто тут практически этим не занимался?
Я архитектуры из статьи про BrainDecode раскурил, но повторить результаты пока не осилил. Там подготовка данных сложная, и не все данные доступны. Но если что - спрашивай

Andrey
05.09.2017
05:04:21
Статья называется Deep learning with convolutional neural networks for EEG decoding and visualization

https://youtu.be/T0zfD8Kf2CI
Фантасмагория: готовая архитектура из статьи, на которую даже референса нет в презентации + "придуманный хак" с усреднением предсказаний на разных эпохах, который используется уже давным-давно + чужие мощные видяхи, которых у 99% машин лёрнеров нету = PROFIT!

Andrey
05.09.2017
14:35:29
Если его на 3 курсе не научат элементарной научной этике, то что будет на 5 и 6?

Yuri
05.09.2017
14:36:44
пока что всё как у всех — в среднем, половина статей в науке невоспроизводима.

Andrey
05.09.2017
14:38:54
Это да, но тут речь всего лишь о том, чтобы не называть копипаст "своим решением'

Evgenii
05.09.2017
14:40:22
Если его на 3 курсе не научат элементарной научной этике, то что будет на 5 и 6?
Имхо, ты слишком придирчив. Вспомни себя на третьем курсе. Чувак не пишет статью в рецензируемый журнал, он просто выиграл yet another hackathon

Yuri
05.09.2017
14:40:24
как я понимаю, реализация у него своя, а авторство идеи не доказать.

Google
Andrey
05.09.2017
14:44:43
А вот я посмотрю статью "каких-то китайцев" и скажу, сколько оттуда позаимствовано. Себя на 3 курсе помню - я учился, делал "мокрую" биологию в лабе, и там скопипастить ничего нельзя было

Andrey
06.09.2017
06:45:21
Я таки не смог найти статью "каких-то китайцев", кто знает эту статью - прошу поделиться. Зато нашел Zhichuan Tang Single-trial EEG classification of motor imagery using deep convolutional neural networks Там отдельные свертки в пространстве и во времени используются

Anon
06.09.2017
22:53:08
люди, как правильно либгеном пользоваться? там поиск только по одному слову или как его заставить искать не подстроку, а все слова? вот кстати книги оттуда по нашей теме: http://libgen.io/search.php?&req=topicid81&phrase=1&view=simple&column=topic&sort=year&sortmode=DESC

Turchin
07.09.2017
12:24:17
Всем привет. Такой вопрос. Сильно ли можно повысить скорость обучения, если прикрутить вторую видеокарту через crossfire? (Пусть будет две 1060ых карточки) Придется ли все вручную параллелить или есть способы, которые это делают автоматически?

Turchin
07.09.2017
12:26:11
А эффект стоит того? Сильно ли вообще повышается в среднем скорость?

Konstantin
07.09.2017
12:27:31
ну если ты прям large-scale эксперименты делаешь. Ну например VGG Image Net на 6-8 картах тренируют

Руками все, но это сейчас стало совсем несложно. Смысл (почти) всегда есть. Только 1060 — это SLI, а не CF :)
а что можно сделать кроме раскидывания батчей по видюхам и усреднения градиентов в общем случае?

А эффект стоит того? Сильно ли вообще повышается в среднем скорость?
Ну то есть не будет такого, что воткнул две видео карты и стало в 1.5-2 раза быстрее работать само по себе

Turchin
07.09.2017
12:30:47
Надо посмотреть как параллелить такие вещи. Последний раз с таким работал в OpenMP/MPI. Спасибо за помощь.

Konstantin
07.09.2017
12:31:04
Ответили уже

Turchin
07.09.2017
12:31:29
Да, я в теории понял, спасибо. Осталось практически понять)

именно как в тензор флоу например это делать

Konstantin
07.09.2017
12:32:03
Удачи ;)

Evgeniy
07.09.2017
13:28:56
Squeeze-and-Excitation Networks - ILSVRC 2017 winner https://arxiv.org/abs/1709.01507

Google
Evgeniy
07.09.2017
13:29:27
Andrey
07.09.2017
13:40:39
А нужен ли SLI?

Ivan
07.09.2017
14:43:49
А нужен ли SLI?
Ты намекаешь не купить ли вместо двух одну но мощную?

Yuri
07.09.2017
14:58:52
А с tensorflow вполне может быть и так, что от смены пакета на другой скорость уже в 1.5 раза повысится) опять же, зависит от задачи

Fyodor
07.09.2017
15:02:37
SLI сильного прироста не даст. Он для обмена данных между картами, в DL обмен данными не узкое место. Т.е. что со SLI, что без скорость примерно та же будет. Кроме батчей глубокие рекуррентные сетки тоже хорошо параллелятся.

И, кстати, 1060 sli не имеет.

Andrey
07.09.2017
15:16:48
Вроде ж больше 2 в SLI все равно не загонишь, а народ собирает сетапы по 4...

Yuri
07.09.2017
15:18:13
Squeeze-and-Excitation Networks - ILSVRC 2017 winner https://arxiv.org/abs/1709.01507
А никто не считал сколько флопсов новая сетка просит? Насколько больше/меньше VGG-16?

Вова, Usopp
07.09.2017
15:18:25
А вообще для cuda sli разве дает прирост? Это же исключительно для рендеринга картинки было придумано

Yuri
07.09.2017
15:19:01
Вроде ж больше 2 в SLI все равно не загонишь, а народ собирает сетапы по 4...
Если про SLI, то топовые видюшкуи поддерживают 4хSLI

Andrey
07.09.2017
15:19:13
И в SLI память не суммируется, вроде бы. А мы хотим как раз суммировать ее

Yuri
07.09.2017
15:19:50
SLI -- это лишь канал данных. Если софт его умеет использовать, то он вполне может работать

Yuri
07.09.2017
15:21:45
В новых Nvidia -- unified memory, т.е. если одна видюшка будет брать данные по адресу данных другой карты, драйвер может отправить данные по SLI

Andrey
07.09.2017
15:22:11
Вот это оч. хорошо, спасибо за такую информация

Yuri
07.09.2017
15:24:32
Надо гуглить в общем

Но SLI медленнее PCI-E

Google
Turchin
08.09.2017
17:42:13
Ребят, а подскажите. Вот в Faster-RCNN. Когда мы получаем гипотезы (proposals) как борются с тем, что боксы расположенны очень близко (например на скриншоте) ?



или ничего не делают и просто посылают все эти гиппотезы дальше?

Konstantin
08.09.2017
17:49:14
там простой алогритм есть

в общем случае, и в R-CNN тоже он наверное

Aleksandr
08.09.2017
17:56:38
Потом через NMS удаляются пересечения

Turchin
08.09.2017
18:09:47
Спасибо!

Evgenii
08.09.2017
18:10:22
Non maximum suppression

Turchin
10.09.2017
18:48:39
Ребят, кто на своих машиннах обучение проводит (на GPU)? Вы во время обучения можете использовать комп для других нужд? Сильно ли загружается (помимо GPU) проц и оперативка?

Aleksandr
10.09.2017
18:58:17
Использовать можно, но надо иметь либо дополнительную видеокарту для вывода или подключаться ко встроенной монитор

Fyodor
10.09.2017
19:52:20
Ребят, кто на своих машиннах обучение проводит (на GPU)? Вы во время обучения можете использовать комп для других нужд? Сильно ли загружается (помимо GPU) проц и оперативка?
Можно, карта не сильно нагружается (не как при майнинге), можно параллельно работать, тормозов нет. Проц/оперативка зависит от реализации (иногда можно весь датасет загрузить в память, иногда с диска подгружать/обрабатывать на лету). Про доп. видеокарту фигню написали.

Ivan
10.09.2017
19:54:15
Но зависит от архитектуры сети ещё.

Turchin
10.09.2017
19:59:04
Спасибо большое!

Andrey
11.09.2017
14:58:27
Ребят, кто на своих машиннах обучение проводит (на GPU)? Вы во время обучения можете использовать комп для других нужд? Сильно ли загружается (помимо GPU) проц и оперативка?
При обучении inceptionV3 даже видос не посмотришь, а при обучении u-net с меньшим числом параметров видео совсем не тормозит. В целом не лучшая идея совмещать, но грубо ориентироваться можно даже не по архитектуре в целом, а просто по числу обучаемых параметров относительно числа cuda-ядер

Magic
14.09.2017
09:26:11
К последнему видосу в канале - задолго до этого видел еще вот что https://xviniette.github.io/FlappyLearning/ код https://github.com/xviniette/FlappyLearning

Magic
14.09.2017
10:13:43
Вот еще интересный эксперимент: https://www.youtube.com/watch?v=GOFws_hhZs8 часть первая видоса. Поиграться: https://www.openprocessing.org/sketch/377698

Turchin
15.09.2017
11:27:45
Всем привет. Собираю себе относительно бюджетный комп для DL. Вот выбрал по некоторым советам карточку GTX 1060 и теперь выбираю CPU. Покурил немного тему выбора ЦП для обучения нейронок, и понял, что он выполняет небольшую работу, но все таки спрошу и здесь, так ли важен выбор CPU? Подойдет ли какой-нибудь amd rysen под эту карту?

Google
Yuri
15.09.2017
11:32:45
А rysen разве намного дешевле бюджетника от интела?

Turchin
15.09.2017
11:34:03
5ый rysen который подходит стоит на 1к дешевле чем, допустим, i5 7400

Andrey
15.09.2017
11:50:25
У меня 4-ядерный ризен

А карта вообще 1050ti - спасибо майнерам, щас менять не буду

Andrey
15.09.2017
11:51:36
Проц нужен чем многоядернее, тем лучше

Anon
15.09.2017
11:52:20
http://minimaxir.com/2017/07/cpu-or-gpu/

Andrey
15.09.2017
11:52:34
Причина - для работы с текстами нужна предобработка на процессоре, а для картинок - аугментация на нем же

http://minimaxir.com/2017/07/cpu-or-gpu/
Сферические кони в вакууме

Для домашнего юзера не актуально

Turchin
15.09.2017
11:54:44
rysen по всяким игровым тестам себя хуже показывает, но они конечно не показатель

Andrey
15.09.2017
11:55:12
Я говорю сугубо о предобработке и аугментации

Вечером могу скинуть свои бенчмарки на R с использованием foreach и parallel

Масштабирование нелинейное, но 4 потока работают в 3 раза быстрее 1 на задаче ресайза и транспонирования массивов

Turchin
15.09.2017
11:58:35
Да я в принципе понял ситуацию, спасибо!

Страница 39 из 52