@ru_python

Страница 963 из 9768
Andrei
10.06.2016
09:42:28
Вот как раз таки в хорошем универе тебе скажут и ты поймешь почему.

Или по крайней мере научат так, что будет понятно почему.

Kirill
10.06.2016
09:42:57
Нужно.
Чтобы применять — не нужно. Keras, caffe, TF, neon, lasagne :) фигачь слои @ стэкай XGBOOST и будет тебе счастье

Andrei
10.06.2016
09:43:15
Щас. Картиночку

Google
Kirill
10.06.2016
09:43:41
Вот как раз таки в хорошем универе тебе скажут и ты поймешь почему.
был хороший универ, но гавно. Сейчас, когда шарю, я знаю, что лучший способ — постепенно учить на практике, интересуясь теорией. Грубо говоря после матана, функана (2 курс) надо сразу практикой заниматься.

Andrei
10.06.2016
09:44:59
Вот такие нейросети как на второй картинке не нужны. Да и то что ты перечислил оно сработает там на ограниченном наборе задач.

Kirill
10.06.2016
09:45:09
да. Обожаю)

Вот ещё есть: http://xkcd.com/1425/

Andrei
10.06.2016
09:45:18
Все равно без понимания матана, функана нечего там делать.

Arseny
10.06.2016
09:47:49
имхо, на уровне простого решения прикладных задач - можно действительно стекать лейеры нейронок или там раздувать ансамбли деревьев

но если надо что-то выдающееся, то внезапно завязаешь в необходимости шарить в математике

Kirill
10.06.2016
09:49:26
но если надо что-то выдающееся, то внезапно завязаешь в необходимости шарить в математике
это само собой приходит, когда устаёшь стакать и шаманить бездумно

поэтому могу с практической точки зрения сказать — это приходит. Можете прочитать про Ваню http://opendatascience.ru/история-изучения-data-science-от-ивана-лобова/

Andrei
10.06.2016
09:51:59
Ну я не знаю, вот какой-бы продвинутой не была нейронка, если ты закинул например данные плохо нормированные, или с ковариацией то принципиально невозможно ничего извлечь будет

Arseny
10.06.2016
09:52:14
ну это гигиена базовая

не нужно быть математиком, чтобы помнить, что хорошо бы чистить данные, а не просто совать их в черный ящик

Google
Kirill
10.06.2016
09:53:18
ещё можно чистить выбросы, но этому в универе не учат

Ivan
10.06.2016
09:54:10
V
10.06.2016
09:54:36
а велосипедисты есть?)

Eugene
10.06.2016
09:55:37
Которые катаются на великах или велосипедят?

Andrei
10.06.2016
09:55:37
не нужно быть математиком, чтобы помнить, что хорошо бы чистить данные, а не просто совать их в черный ящик
Ты не сможешь глядя на многомерные данные сказать какая у них ковариация

Ты можешь биться головой об стену пока не поймешь, что у тебя размерность данных другая

Нужно будет проанализировать главные компненты.

Посмотреть на сингулярное разложение матрицы ковариации

Arseny
10.06.2016
09:57:12
опять же, необязательно уметь делать SVD на доске, чтобы вызывать соотв.метод

если что, я не агитирую, что аналитику не нужно образование.

Andrei
10.06.2016
09:58:09
Карунена-Лоэва проделать

Речь о том, что откуда ты вообще должен знать, что тебе надо данные ТАК оьрабатывать

Aleshka
10.06.2016
09:59:04
минут 15 назад перестал понимать что здесь происходит, посоветуйте клевые книги где все это почитать, матан, функциональный анализ, алгоритмы, обучение, пожалуйста)

Andrei
10.06.2016
09:59:06
Что в случаее линейной зависимости между входами например, ты можешь вообще никогда бэкпропом не обучиться.

Как минимум нужно понимать как работает бэкпроп на многолослойных перцептронах, чтобы не было впечатления будто, нейронки это что-то неонятное, которое работает по какой-то магии. А не самая тупая и простая регрессия или аппроксимация

Чтобы понимать, что там нет интеллекта и быть не может.

Andrei
10.06.2016
10:03:17
Google
Arseny
10.06.2016
10:03:40
хайп вокруг того, что нейронки - это интеллект, вообще смешной

Andrei
10.06.2016
10:05:06
Смешно то, что их в неакадемической среде пытались использовать ровно там, где они хуже всего себя ведут. В анализах временных рядов.

Не бы чтобы там гёльдеровы показатели экспонент посчитать, которые для экономистов гораздо больше могут дать.

Вместо этого неприменимые нейронки. НО ВЕДЬ АНИ ЖИ ТИПА НИЙРОНЫ, ТИПА ИНТИЛЕКТ

Belegnar
10.06.2016
10:08:32
о! кстати

тут полно умных

https://img-fotki.yandex.ru/get/48278/43600.4/0_1d5232_189d732f_orig

Kirill
10.06.2016
10:09:34
хайп вокруг того, что нейронки - это интеллект, вообще смешной
ну вопрос в переносе качеств и ускорении обучения

transfer learning

не то сказал, что хотел. В целом куча вещей есть, которых не хватает для подобия интеллекта, но всё развивается.

Andrei
10.06.2016
10:12:26
Aldar
10.06.2016
10:16:23
Закончил маёвник, специальность "Системы управления, навигации и стабилизации ЛА". Работал по спецухе пару лет, потом ушёл в погроммирование. В принципе не жалею что окончил, базу какую никакую дало, и корочка думаю пригодится.

Belegnar
10.06.2016
10:16:35
В чем задача?
найти i0, s, d0, a

Andrei
10.06.2016
10:16:57
А что дано?

Что значит "таблица"?

Aldar
10.06.2016
10:17:32
I(D) на функцию похоже

Andrei
10.06.2016
10:17:47
Да там табулированная функция просто

Но из картинки не понятно ничерта

Belegnar
10.06.2016
10:17:58
ээээээ таблица - она и есть таблица две колонки, несколько строчек в одной колонке значение D, в другой - значение I

Andrei
10.06.2016
10:18:02
С каким шагом

Google
Aldar
10.06.2016
10:18:16
там ещё матричная экспонента)

Andrei
10.06.2016
10:18:31
С каким шагом, как раскрывается неоднозначность +- перед экспонентой

Belegnar
10.06.2016
10:18:34
С каким шагом
с нерегулярным

Andrei
10.06.2016
10:18:43
там ещё матричная экспонента)
Откуда? Где ты там матрицы увидел ваще?

Belegnar
10.06.2016
10:19:04
С каким шагом, как раскрывается неоднозначность +- перед экспонентой
а хрен его знает, как раскрывается слева - экспериментальные данные, справа - предполагаемая аналитическая зависимость для этих данных

Aldar
10.06.2016
10:19:04
таблица это разве не матрица?

Andrei
10.06.2016
10:19:22
Да господи, нет.

Belegnar
10.06.2016
10:19:26
может быть +, может быть -

пока не известно это

Admin
ERROR: S client not available

Andrei
10.06.2016
10:19:48
Не ну круто, чо.

Выглядит плохо

Aldar
10.06.2016
10:20:03
хм, мне с моих заржавевших знаний математики показалось что там матричное уравнение

Andrei
10.06.2016
10:20:45
Если бы там где-то в минус бесконечность уходило значение, то там бы был D0

При условии минуса перед экспонентой

Но вообще хуёвая постановка.

Какие границы у параметров искомых?

Aldar
10.06.2016
10:21:26
в общем объясните что в этой задаче что

Belegnar
10.06.2016
10:21:38
При условии минуса перед экспонентой
вот мне тоже кажется, что там минус но пара профессоров со мной не согласны, оперируют физическим смыслом =)

Andrei
10.06.2016
10:22:15
в общем объясните что в этой задаче что
Да епт. Просто функция от одной переменной, и от четырех параметров. Есть её вид и значение в некоторых точках. Надо найти параметры

Google
Andrei
10.06.2016
10:23:08
В экселе делается перебором по пространству параметров и минимизацией mse

Belegnar
10.06.2016
10:23:18
Какие границы у параметров искомых?
ща подумаю. из физического смысла что-то можно вытащить, скорее всего

Andrei
10.06.2016
10:23:18
Но нужны огничения на параметры

Aldar
10.06.2016
10:23:26
можно продиффиренцировать по разным параметрам

Andrei
10.06.2016
10:23:27
А что за физический смысл?

Aldar
10.06.2016
10:23:32
посмотреть что получится)

Andrei
10.06.2016
10:23:36
Выглядит то точно физически

Экспонента намекает на какое нибудь распределение

Типа гиббсовского

Aldar
10.06.2016
10:24:07
тильда это что значит ? растёт также быстро на бесконечности?

Andrei
10.06.2016
10:24:21
Просто пропорционально

mse? я про наименьший квадрат думал
Сумма квадратов ошибок от табличных значений.

Andrei
10.06.2016
10:25:58
Хм. Можно даже угадать значит у тебя там какой-то ток, площадь

Ченить сквозь пластинку пропускаешь

Belegnar
10.06.2016
10:26:13
Экспонента намекает на какое нибудь распределение
да не, вроде не должно быть там никакого распределения

Andrei
10.06.2016
10:26:18
D интересно что такое

Shaman
10.06.2016
10:26:34
Есть у кого изи скрипт для клепания гифок из пикч?

Andrei
10.06.2016
10:26:38
Магнитный поток или поле

Страница 963 из 9768