@haskellru

Страница 268 из 1551
Evgeniy
23.05.2017
08:30:05
примерно

Dmitry
23.05.2017
08:30:07
самолеты давно сами взлетают, летят и садятся

при желании.

Evgeniy
23.05.2017
08:30:29
Пока это все стартапчики и выкачка денег
ну не, довольно крупные игроки включились

Google
Umren
23.05.2017
08:30:29
самолеты давно сами взлетают, летят и садятся
Про это вкурсе, но речь об убирании пилота там нету даже близко

Dmitry
23.05.2017
08:31:39
ну в общем да, какое-то время еще полетают

так что этот поезд не совсем ушел, для тех, кому IT осточертело

Umren
23.05.2017
08:32:07
на эту жизнь хватит

Sergey
23.05.2017
08:45:43
А че сложно пилотом стать? сколько учиться нужно?
Средний программист не проходит по здоровью

Dmitry
23.05.2017
08:46:16
это в РФ, где одни нормативы для пилотов и космонавтов

мои знакомые делали операции, что бы по зрению проходить

Umren
23.05.2017
08:46:46
Средний программист не проходит по здоровью
Я думаю средний человек не проходит)

Dmitry
23.05.2017
08:46:56
Ладно, раз в этом анимешном канале речь про самолёты зашла, задам вопрос по теме: а как для нейронки подбирать количество скрытых слоёв и их размер? Есть какие-то общие рекомендации?

Umren
23.05.2017
08:47:01
надо просто заранее этот момент выяснить, что бы потом не было облома

Dmitry
23.05.2017
08:49:40
Our Robots, Ourselves: Robotics and the Myths of Autonomy https://www.amazon.com/Our-Robots-Ourselves-Robotics-Autonomy-ebook/dp/B00SI02AWK

Google
Dmitry
23.05.2017
08:49:57
Про эти ваши роботы-самолеты

Dmitry
23.05.2017
08:50:06
@dmalkr этому точно книга какая-нибудь не посвящена? и там еще разные разделы, типа для чего какая нейронка и как подбирать

Evgeniy
23.05.2017
08:50:37
random search если неохота заморачиваться
правило большого пальца - количество параметров не должно быть сильно больше чем количество данных

Dmitry
23.05.2017
08:50:39
Не могу каких-то внятно книг, где бы это написано было, найти

Dmitry
23.05.2017
08:51:08
ну по ML-ю книг много, неужели именно про нейронки ничего нет? просто тема какая-то дюже общая

Evgeniy
23.05.2017
08:51:37
Не могу каких-то внятно книг, где бы это написано было, найти
да потому что интуиция и метод проб и ошибок либо Автоматизация

Dmitry
23.05.2017
08:52:08
Ладно, значит, перебор :(

Evgeniy
23.05.2017
08:52:35
Ладно, значит, перебор :(
random search эффективнее

Dmitry
23.05.2017
08:56:04
Ну я про него, да. Всё множество параметров не перебрать.

Ну, разве что ген.алгоритмы добавить

Dmitry
23.05.2017
08:56:55
мой опыт использования нейронок пришел к тому, что когда у тебя хороший вектор, который ты в нейронку пихаешь, то нейронка и не нужна становится

но это было больше десяти лет назад

Dmitry
23.05.2017
08:58:43
Это как?

Dmitry
23.05.2017
08:58:51
это как что?

Alexander
23.05.2017
08:59:34
перевод: как получается так что нейронка не нужна

Dmitry
23.05.2017
08:59:37
Что такое "хороший вектор" и почему при нём нейронка становится не нужна?

Евгений
23.05.2017
08:59:37
Dmitry
23.05.2017
08:59:51
Да

Dmitry
23.05.2017
09:00:12
ну вот распознаешь ты символы

Google
Dmitry
23.05.2017
09:00:20
ты ж не будешь прям пикселы в нейронку пихать?

ты строишь некий от них инвариант

стойкий там к таким преообразованиям, сяким преобразованиям

и когда ты его научился строить

то оно прекрасно распознается тупым k-means

но да это было 10 лет назад и может с тех пор корабли бороздят и всё такое.

Евгений
23.05.2017
09:02:05
Прям пиксели и суют, насколько я понимаю. Как раз чтобы найти эти инварианты

Dmitry
23.05.2017
09:02:45
может и суют, но тогда совали не пиксели. а собирали какой-то набор фактов о символах + какие-то геометрические производные

-деривативы- в смысле. ну там находили центр масс, вектора строили еще что-то вот такое.

Евгений
23.05.2017
09:04:47
Насколько я понимаю, вся суть хайпа в том, что монополии набрали себе таких вычислительных мощностей, что могут в нейронки пихать огромные вектора

Dmitry
23.05.2017
09:05:26
ну я не знаю. учоные что-то изучают, пейперы пишутся, всё это происходит уже мнго лет, не стоит наверное так вот обобщать. как показывает практика, 1% всего этого должен быть по делу

ну, 0.1% - 1%

Евгений
23.05.2017
09:07:38
Ну так они много лет изучают, чо

Я говорю не о теории, а о практике

Dmitry
23.05.2017
09:07:59
ну я бы остерегся говорить, что нейросети - 100% шлак

Евгений
23.05.2017
09:08:22
Если ты гугл, то нихера не шлак ?

Dmitry
23.05.2017
09:08:29
но если сравнивать с той областью ноуке, что я окунулся лет пять назад - то где-то 99% публикаций - шлак

Evgeniy
23.05.2017
09:09:49
Ну я про него, да. Всё множество параметров не перебрать.
есть всякие градиент-десент стайл алгоритмы

Dan
23.05.2017
09:12:12
ну по ML-ю книг много, неужели именно про нейронки ничего нет? просто тема какая-то дюже общая
Просто чем больше слоев, тем в общем случае "умнее" сеть, но тем дольше ее учит. Но это как я понял. Плюс там еще фишечки с переобучением

Евгений
23.05.2017
09:12:22
Ну моя позиция такая: монополии набрали себе ресурсов, чтобы подешёвке приближённо решать сложные задачи статистическим анализом, вместо того, чтобы нанимать дорогостоющие лаборатории и ждать десятки лет. А все мелкие компании тянутся за ними в хвосте и не понимают, что за этим хайпом стоят многомиллионные кластеры

Google
Dan
23.05.2017
09:12:27
В общем, только эмпирически подбирать, ИМО

Dmitry
23.05.2017
09:12:53
@LuckAttractor "умнее" тут как-то смотриться... профанически.

т.е этих сетей 9000 видов

Dan
23.05.2017
09:13:16
Dmitry
23.05.2017
09:13:17
не только слои определяют её свойство

Dan
23.05.2017
09:13:21
В сетях-то

Dmitry
23.05.2017
09:13:26
там есть и прочие какие-то архитектурные вещи

какие-то. мне казалось, даже у меня в книжках по ML-ю разбиралась пара-тройка видов сетей

Dan
23.05.2017
09:14:14
Я просто всего пару раз их тыкал по работе, и то не сам

Admin
ERROR: S client not available

Dan
23.05.2017
09:14:44
Тут и правда от задачи зависит, сколько слоев городить

Dmitry
23.05.2017
09:15:09
мы десять лет назад пытались строить что-то наподобие Decision tree, только в узлах были простые персептроны, и всё это дело учить при помощи генетических алгоритмов

но быстро устали

пока собирается ghcjs можно обсудить широкий круг тем

по нескольку раз

Dan
23.05.2017
09:16:41
Понятно. По-моему, кстати, куча стат задач решается без сети, просто с обучением, или я не понимаю?

Ну то есть обычный монте-карло, эволюция и прочие алгоритмы

Dmitry
23.05.2017
09:17:13
ну я это и пытался сказать. при хорошем препроцессинге и инвариантах символы получалось распознавать без всяких нейросетей простым kmeans

ну в смысле nearest neighbor

Dan
23.05.2017
09:17:28
Они же не особо связаны с сетями, но подходят там, где сейчас пытаются нейросети делать

Google
Dan
23.05.2017
09:17:41
Ну да

У нас просто недавно было сборище по бионинформатике, решали задачки разные. Сначала все такие - а давайте тут нейронку, и еще там и потом еще сверху одну

В итоге почти все задачи старыми алгоритмами решались на ура, все и дропнули это сети

Dmitry
23.05.2017
09:49:33
Так суть-то нейронок в том, что засыпал туда данных, и оно само всё.

Dmitry
23.05.2017
09:49:49
дооо

Dmitry
23.05.2017
09:49:49
И не надо никаких "старых алгоритмов" знать

Dmitry
23.05.2017
09:49:51
само

Dmitry
23.05.2017
09:53:13
Не мешали чему?

Max
23.05.2017
09:53:51
большим конторам

а там да, может что и выгорит

если выгорит — купят

Dmitry
23.05.2017
09:59:15
Так если они этим диплёнингом занимаются, как же они большим конторам мешают? Наоборот помогают

Max
23.05.2017
10:03:15
> чтобы простые смертные лезли во всё это и не мешали я же ровно про это и написал

задают нужный им вектор, и масса народу туда ломится

Евгений
23.05.2017
10:04:16
По-моему как раз был бы логичный вопрос обратный: если бы можно было срубить нехило на диплёнинге, не имея ресурсов монополий, кто бы тогда своими технологиями делился? Ну кроме GPL-фанатиков

Dmitry
23.05.2017
10:04:40
А, в том смысле, что в дркгие направления не ломятся? ХитрО!

Ну вот и я про то же. Технологиями поиска же не делятся

Страница 268 из 1551