@ru_deep_learning

Страница 38 из 52
Anon
18.07.2017
11:17:40
кто пробовал synaptic, нет ли такого-же, но на С++? с чего synaptic передрали?

очень толково написана библиотека, в 100 раз понятнее питона

Oleg
18.07.2017
13:28:59
> понятнее питона



Google
Turchin
18.07.2017
17:45:02
Ребят, с openface никто не работал?

Evgenii
19.07.2017
07:16:06
Don't ask to ask just ask

Fyodor
19.07.2017
08:25:52
Ребят, с openface никто не работал?
Конечно кто-то работал. Как минимум разработчики с/над ней работали.

Yuri
19.07.2017
08:38:14
Ребят, с openface никто не работал?
задай конкретный вопрос

Evgenii
19.07.2017
09:01:53
Да он проспался небось, и забыл уже все ?

Turchin
19.07.2017
10:39:35
Да тут вопрос в том, что годная ли это либа, пойдет ли для продакшена? Мб он подустарела или имеет много багов.

Anon
29.07.2017
19:10:35
YOLO под виндовс портировали, и оно даже работает, запускается

правда подшаманить код пришлось чуть-чуть

https://github.com/AlexeyAB/darknet

Ivan
29.07.2017
19:40:25
Хитрый спам

Anon
30.07.2017
15:04:29
https://twitter.com/quasimondo/status/891611331090157568

ишь чего придумали

Turchin
30.07.2017
15:05:26
В чем соль, я не понял

Google
Turchin
30.07.2017
15:05:37
Что происходит на гифке?

Anon
30.07.2017
15:05:59
GAN рисует узор из лиц

Valery
30.07.2017
15:07:48
“путешествие в латентном пространстве”

Turchin
30.07.2017
15:09:58
Ребят, а можете посоветовать годных готовых реализаций faster-rcnn ? Все что я нагуглил, какой-то ад.

Turchin
30.07.2017
15:13:45
Ну вот допустим https://github.com/yhenon/keras-frcnn

Не буду придераться к коду, который очень странный, бог с ним

Но тут нет вариантов запустить демку, ибо они не дают готовых весов

+ все на 2ом питоне, что печально

info
04.08.2017
05:30:42
привет

Alexander
18.08.2017
11:06:25
Друзья, а есть канал для работы для DSов?

У меня вакансия есть для DS и DE спецов.

не знаю, куда запостить

Anon
18.08.2017
13:09:45
а сколько денег?

Evgenii
18.08.2017
13:11:41
Да, описание не обязательно. Скажи скока бабла

Ivan
18.08.2017
13:12:44
В ВК есть группа по Глубокому обучению, там есть раздел вакансии

Andrey
18.08.2017
13:13:50
Да, описание не обязательно. Скажи скока бабла
По ответу на этот вопрос проще понять, стоит ли вникать в описание

Alexander
18.08.2017
13:17:44
Без проблем, по деньгам меня ограничили до 200 на руки для крутых. Недавно взяли начинающего за 130. В целом подходят из соответствия ожидание / опыт, тут всё адекватно, занижать никто не будет.

Andrey
18.08.2017
13:20:49
Если в приоритете найти сотрудника, а не просто отметиться в чате, то лучше оформить вакансию на HH, moikrug и пр. (и затем бросать ссылку)

Evgenii
18.08.2017
13:47:59
Запости сюда, а то уже дольше обсуждаем

Google
Evgenii
18.08.2017
13:48:53
Chat for members of AI Community (www.ai-community.com) about Jobs and Projects. Invite link - https://telegram.me/joinchat/ABI4pz7v7KfJhb12XIkIUA

Виталий
20.08.2017
04:31:14
если не интересно или не в тему удалите пост, просто поделится больше негде. Может кому интересно будет. А глубинное обучение клёвая тема, почтоянно читаю ) Спасибо. Кстати, небольшой опрос, кто каким фреймфоркам пользуется coffee, TensorFlow или может не используете фреймворки?

Sergey
20.08.2017
06:39:31
Coffee, да

Заряжает бодростью и энергией на весь день

Anon
20.08.2017
15:48:00
просто местный цапко ещё не узнал про посёлок очкариков. как узнает, так и устроит синергию

Evgenii
20.08.2017
15:50:53
В идеале хотелось бы выращивать программистов как овец и стричь их время от времени

Anon
20.08.2017
15:51:10
Evgenii
20.08.2017
15:52:18
Evgenii
20.08.2017
16:12:53
Каффе для прода, питорч для ресерча

Anon
26.08.2017
19:16:03
Каффе не надо. Кладёшь обученную модель в папочку и работаешь
под винду кто недавно кафе собирал, с какого гитхаба брать лучше?

Ivan
27.08.2017
08:59:45
Я с официального собирал под vs15

Anon
27.08.2017
10:22:51
Я с официального собирал под vs15
отсюда: https://github.com/BVLC/caffe/tree/windows ?

Ivan
27.08.2017
10:30:18
Я сейчас не за компьютером, не могу точно сказать. Точно помню что официальная инструкция.

Anon
27.08.2017
10:35:57
наверное это тогда

кстати, кто читал на хабре туториал вчерашний? офигенная вещь, где бы ещё такого найти?

вот это

https://habrahabr.ru/company/ods/blog/335998/

Google
Anon
27.08.2017
10:37:48
я как то смотрел на хероку, но мне было дико, что я там ни одного байта не могу сохранить в самой хероке, поэтому забросил. а оказывается не всё так страшно

Vera
31.08.2017
09:26:46
Всем привет. Кто-нибудь разбирал эту статью: Hierarchical Multi-scale Attention Networks for Action Recognition (August 2017, Shiyang Yan, https://www.researchgate.net/publication/319311903_Hierarchical_Multi-scale_Attention_Networks_for_Action_Recognition)?

Что думаете про HTM?

Виталий
31.08.2017
09:39:26
HyperText Markup =)

Yuri
31.08.2017
15:53:33
Что думаете про HTM?
а какой именно HTM?

Turchin
04.09.2017
19:11:13
Всем привет. Задался таким вопросом. Каким образом нейросетки толкают в продакшн? Я имею в виду вот что. На обучении тратится довольно много ресурсов. Требуется видеокарта, время и т.д. Но ведь даже для запуска нейросетки для обычного predict-a уходит также немало мощностей, ведь сетку нужно хранить в оперативной памяти (поправьте, если я ошибаюсь) и еще прогнать по ней данные. Тогда как работают допустим системы слежения на основе сеток, всякие Prisma и другие продукты? Они же установлены на слабых устройствах. Неужели все данные направляют в облако, на мощные сервера и там обрабатываются?

Anon
04.09.2017
19:19:51
Всем привет. Задался таким вопросом. Каким образом нейросетки толкают в продакшн? Я имею в виду вот что. На обучении тратится довольно много ресурсов. Требуется видеокарта, время и т.д. Но ведь даже для запуска нейросетки для обычного predict-a уходит также немало мощностей, ведь сетку нужно хранить в оперативной памяти (поправьте, если я ошибаюсь) и еще прогнать по ней данные. Тогда как работают допустим системы слежения на основе сеток, всякие Prisma и другие продукты? Они же установлены на слабых устройствах. Неужели все данные направляют в облако, на мощные сервера и там обрабатываются?
1) ресурсы тратятся на подбор весов, чтобы 100500 раз переколдовать веса, а один проход всегда быстрый. 2) не требуется видеокарта, просто без неё будет медленнее. 3) сеть можно хранить в памяти всю, можно один слой, можно не хранить, это от реализации зависит. 4) призма первой версии была облачной, потом сделали локальную.

Вова, Usopp
04.09.2017
19:23:29
именно, в итоге нейронная сеть - это огромный многочлен, который может считаться достаточно быстро и без видеокарт. Тем более, немалое число связей и нейронов, как правило, можно прорядить (prune), получая бОльшую скорость применения в обмен на увеличение погшености

Turchin
04.09.2017
19:42:03
Просто я это все примерно так и понимал. Но сейчас попытался запустить реализацию faster-rcnn на caffe на CPU и получил ошибку того, что не хватает оперативной памяти.

Сетка vgg16

И вот задаюсь вопросом как мне это все запускать на слабом устройстве.

Evgenii
04.09.2017
19:44:44
Вгг это большая сетка. Погугли squeezenet и google mobilenet

Turchin
04.09.2017
19:46:08
А нет спрсобов запустить именно vgg? Мб способы оптимизации какие-нибудь

Evgenii
04.09.2017
19:47:35
Ты можешь сохранить веса в целых числах и сэкономить. Для тензорфлоу что то было для сжатия, но распаковывать в оперативку все равно придётся

Ты можешь поиграться с архитектурой, но для этого надо почитать статьи. Погугли fully convolutional network

Плюс не все на устройствах это нейронки. Тот же MSQRD скорее всего обходится без них

Turchin
04.09.2017
19:50:39
Теорию на эту тему я знаю , и про фулконв сети тоже Меня скорее интересует практическая реализация, то как это работает в готовых проектах. Но спасибо

Спасибо всем, кто отозвался

Sasha
04.09.2017
19:51:30
Всем привет! А кто-нибудь знает какие- нибудь статьи или архитектуры сверточных сетей для анализа ЭЭГ? Хочется понять откуда копать

Google
Sasha
04.09.2017
19:59:15
Спасибо! А никто тут практически этим не занимался?

Страница 38 из 52