Arcady
24.07.2018
08:17:03
два бота решат 90% проблем. комбот и daysandbox
Evgeniy
24.07.2018
08:18:37
один активный админ решает 100% проблем
Arcady
24.07.2018
08:22:15
шо, и глубинное обучение не нужно?
Yuri
24.07.2018
08:52:41
Google
Виталий
24.07.2018
08:53:12
Yuri
24.07.2018
08:54:03
Dan
24.07.2018
09:05:21
Буду краток.
@bigdata_ru со всеми профильными вопросами
@bigdata_en то же, но на английском
И да, там есть защита от спама, от китайцев и флуда. А ещё там только релевантные беседы по ml, ai и ds
Arcady
24.07.2018
09:06:15
о, реклама пошла
Dan
24.07.2018
09:06:22
Это не реклама
Arcady
24.07.2018
09:06:25
а мне можно?
Dan
24.07.2018
09:06:26
Это спасение
Andrey
24.07.2018
09:08:53
Data Science Chat
Добро пожаловать
в наш чат по анализу данных
и машинному обучению.
Строгая модерация
(за спам и флуд бан)
https://t.me/datasciencechat
Лучше сюда
Dan
24.07.2018
09:11:29
Да, или туда, это тоже наша группа :)
Есть ещё огромное комьюнити AI Community, с десятком чатов. И ещё несколько каналов по теме: github.com/goq/telegram-list
Arcady
24.07.2018
14:07:08
ща я сам начну уже спамить
Google
Michael
25.07.2018
18:45:12
@yuri_baburov, я только что посмотрел на Mozilla DeepSpeech код, там у них DS1 модель, а не DS2. Но тем не менее они умудрились добиться 6.5% accuracy on LibriSpeech test-clean.
что весьма удивительно
получается что и batchnorm, и conv layers, и куча rnn слоев особо не нужны
разве что только чтобы получить самый последний процент
@yuri_baburov я добавил train-other-500 и вижу что модель на ней полностью загибается: на train-clean-100 и train-clean-360 loss быстро падает, затем как только начинается обучение на train-other output becomes random
Valeri
09.08.2018
06:32:01
https://www.ngene.co
Andrey
09.08.2018
06:34:05
Для FPGA?
Valeri
09.08.2018
06:35:50
Функция для FPGA acceleration тоже есть. Но в виде отдельного инструментария.