Konstantin
04.09.2017
20:04:22
Ivan
04.09.2017
20:05:16
Там написано что она основана на PixelCNN. Открываешь PixelCNN там тоже нет схемы, только блок.
Konstantin
04.09.2017
20:06:05
Тык вроде реплики есть у обоих сеток на гитхабах
Ivan
04.09.2017
20:08:23
Да, действительно есть.
Google
Ivan
04.09.2017
20:10:46
Невнимательно посмотрел, даже в публикации есть схема.
Andrey
05.09.2017
03:07:22
Sasha
05.09.2017
05:01:15
Andrey
05.09.2017
05:04:21
Статья называется Deep learning with convolutional neural networks for EEG decoding and visualization
https://youtu.be/T0zfD8Kf2CI
Фантасмагория: готовая архитектура из статьи, на которую даже референса нет в презентации + "придуманный хак" с усреднением предсказаний на разных эпохах, который используется уже давным-давно + чужие мощные видяхи, которых у 99% машин лёрнеров нету = PROFIT!
Evgenii
05.09.2017
14:31:00
Andrey
05.09.2017
14:35:29
Если его на 3 курсе не научат элементарной научной этике, то что будет на 5 и 6?
Yuri
05.09.2017
14:36:44
пока что всё как у всех — в среднем, половина статей в науке невоспроизводима.
Andrey
05.09.2017
14:38:54
Это да, но тут речь всего лишь о том, чтобы не называть копипаст "своим решением'
Evgenii
05.09.2017
14:40:22
Yuri
05.09.2017
14:40:24
как я понимаю, реализация у него своя, а авторство идеи не доказать.
Google
Andrey
05.09.2017
14:44:43
А вот я посмотрю статью "каких-то китайцев" и скажу, сколько оттуда позаимствовано. Себя на 3 курсе помню - я учился, делал "мокрую" биологию в лабе, и там скопипастить ничего нельзя было
Evgeniy
05.09.2017
14:47:00
Evgenii
05.09.2017
14:47:24
Andrey
06.09.2017
06:45:21
Я таки не смог найти статью "каких-то китайцев", кто знает эту статью - прошу поделиться. Зато нашел Zhichuan Tang Single-trial EEG classification of motor imagery using deep convolutional neural networks Там отдельные свертки в пространстве и во времени используются
Anon
06.09.2017
22:53:08
люди, как правильно либгеном пользоваться? там поиск только по одному слову или как его заставить искать не подстроку, а все слова? вот кстати книги оттуда по нашей теме: http://libgen.io/search.php?&req=topicid81&phrase=1&view=simple&column=topic&sort=year&sortmode=DESC
Turchin
07.09.2017
12:24:17
Всем привет. Такой вопрос. Сильно ли можно повысить скорость обучения, если прикрутить вторую видеокарту через crossfire? (Пусть будет две 1060ых карточки) Придется ли все вручную параллелить или есть способы, которые это делают автоматически?
Artem
07.09.2017
12:25:27
Konstantin
07.09.2017
12:25:54
Turchin
07.09.2017
12:26:11
А эффект стоит того? Сильно ли вообще повышается в среднем скорость?
Konstantin
07.09.2017
12:27:31
ну если ты прям large-scale эксперименты делаешь. Ну например VGG Image Net на 6-8 картах тренируют
Artem
07.09.2017
12:30:11
Turchin
07.09.2017
12:30:47
Надо посмотреть как параллелить такие вещи. Последний раз с таким работал в OpenMP/MPI. Спасибо за помощь.
Konstantin
07.09.2017
12:31:04
Ответили уже
Turchin
07.09.2017
12:31:29
Да, я в теории понял, спасибо. Осталось практически понять)
именно как в тензор флоу например это делать
Konstantin
07.09.2017
12:32:03
Удачи ;)
Evgeniy
07.09.2017
13:28:56
Squeeze-and-Excitation Networks - ILSVRC 2017 winner https://arxiv.org/abs/1709.01507
Google
Evgeniy
07.09.2017
13:29:27
Andrey
07.09.2017
13:40:39
А нужен ли SLI?
Ivan
07.09.2017
14:43:49
Yuri
07.09.2017
14:58:52
А с tensorflow вполне может быть и так, что от смены пакета на другой скорость уже в 1.5 раза повысится) опять же, зависит от задачи
Fyodor
07.09.2017
15:02:37
SLI сильного прироста не даст. Он для обмена данных между картами, в DL обмен данными не узкое место. Т.е. что со SLI, что без скорость примерно та же будет.
Кроме батчей глубокие рекуррентные сетки тоже хорошо параллелятся.
И, кстати, 1060 sli не имеет.
Yuri
07.09.2017
15:08:34
Andrey
07.09.2017
15:16:48
Вроде ж больше 2 в SLI все равно не загонишь, а народ собирает сетапы по 4...
Yuri
07.09.2017
15:18:13
Вова, Usopp
07.09.2017
15:18:25
А вообще для cuda sli разве дает прирост? Это же исключительно для рендеринга картинки было придумано
Yuri
07.09.2017
15:19:01
Andrey
07.09.2017
15:19:13
И в SLI память не суммируется, вроде бы. А мы хотим как раз суммировать ее
Yuri
07.09.2017
15:19:50
SLI -- это лишь канал данных. Если софт его умеет использовать, то он вполне может работать
Andrey
07.09.2017
15:20:32
Yuri
07.09.2017
15:21:45
В новых Nvidia -- unified memory, т.е. если одна видюшка будет брать данные по адресу данных другой карты, драйвер может отправить данные по SLI
Andrey
07.09.2017
15:22:11
Вот это оч. хорошо, спасибо за такую информация
Yuri
07.09.2017
15:24:32
Надо гуглить в общем
Но SLI медленнее PCI-E
Google
Turchin
08.09.2017
17:42:13
Ребят, а подскажите. Вот в Faster-RCNN. Когда мы получаем гипотезы (proposals) как борются с тем, что боксы расположенны очень близко (например на скриншоте) ?
или ничего не делают и просто посылают все эти гиппотезы дальше?
Konstantin
08.09.2017
17:49:14
там простой алогритм есть
в общем случае, и в R-CNN тоже он наверное
Aleksandr
08.09.2017
17:56:38
Потом через NMS удаляются пересечения
Turchin
08.09.2017
18:09:47
Спасибо!
Evgenii
08.09.2017
18:10:22
Non maximum suppression
Turchin
10.09.2017
18:48:39
Ребят, кто на своих машиннах обучение проводит (на GPU)? Вы во время обучения можете использовать комп для других нужд? Сильно ли загружается (помимо GPU) проц и оперативка?
Aleksandr
10.09.2017
18:58:17
Использовать можно, но надо иметь либо дополнительную видеокарту для вывода или подключаться ко встроенной монитор
Fyodor
10.09.2017
19:52:20
Ivan
10.09.2017
19:54:15
Но зависит от архитектуры сети ещё.
Turchin
10.09.2017
19:59:04
Спасибо большое!
Andrey
11.09.2017
14:58:27
Magic
14.09.2017
09:26:11
К последнему видосу в канале - задолго до этого видел еще вот что
https://xviniette.github.io/FlappyLearning/
код https://github.com/xviniette/FlappyLearning
Anon
14.09.2017
09:47:15
Magic
14.09.2017
10:13:43
Вот еще интересный эксперимент:
https://www.youtube.com/watch?v=GOFws_hhZs8
часть первая видоса.
Поиграться: https://www.openprocessing.org/sketch/377698
Anon
14.09.2017
10:17:08
Turchin
15.09.2017
11:27:45
Всем привет. Собираю себе относительно бюджетный комп для DL. Вот выбрал по некоторым советам карточку GTX 1060 и теперь выбираю CPU. Покурил немного тему выбора ЦП для обучения нейронок, и понял, что он выполняет небольшую работу, но все таки спрошу и здесь, так ли важен выбор CPU? Подойдет ли какой-нибудь amd rysen под эту карту?
Google
Yuri
15.09.2017
11:32:45
А rysen разве намного дешевле бюджетника от интела?
Turchin
15.09.2017
11:34:03
5ый rysen который подходит стоит на 1к дешевле чем, допустим, i5 7400
Andrey
15.09.2017
11:50:25
У меня 4-ядерный ризен
А карта вообще 1050ti - спасибо майнерам, щас менять не буду
Anon
15.09.2017
11:51:10
Andrey
15.09.2017
11:51:36
Проц нужен чем многоядернее, тем лучше
Anon
15.09.2017
11:52:20
http://minimaxir.com/2017/07/cpu-or-gpu/
Andrey
15.09.2017
11:52:34
Причина - для работы с текстами нужна предобработка на процессоре, а для картинок - аугментация на нем же
Для домашнего юзера не актуально
Turchin
15.09.2017
11:54:44
rysen по всяким игровым тестам себя хуже показывает, но они конечно не показатель
Andrey
15.09.2017
11:55:12
Я говорю сугубо о предобработке и аугментации
Вечером могу скинуть свои бенчмарки на R с использованием foreach и parallel
Масштабирование нелинейное, но 4 потока работают в 3 раза быстрее 1 на задаче ресайза и транспонирования массивов
Turchin
15.09.2017
11:58:35
Да я в принципе понял ситуацию, спасибо!