@bigdata_ru

Страница 223 из 327
Konstantin
03.02.2018
07:22:55
http://dmkpress.com/catalog/computer/programming/c/978-5-97060-471-7/

http://dmkpress.com/catalog/computer/programming/python/978-5-97060-200-3/

Там объясняется буквально в первых главах

Google
Loki
03.02.2018
08:11:33
оо благодарю) почитаю

Alex
03.02.2018
20:44:17
Приветствую. Подскажите куда копать по вопросу распознавания текста на картинке без сегментации символов. Проста каптча без шума. Keras.

dot
04.02.2018
02:51:04
Добрый день, может кто сталкивался с такой странной вещью . Использую open cv 3 на питоне .При открытии некоторых изображений вываливается ошибка какбудето изображение пустое imagerose = cv2.imread("D:\rose.jpg") print(imagerose). Хотя там нормальное изображение. Подскажите как с такой бедой бороться ?

Alex
04.02.2018
09:14:44
Tesseract
Имплементация на keras интересует.

Peter
04.02.2018
10:27:38
Добрый день, не подскажете где можно найти датасеты научных статей с мета-информацией (авторы, название, список литературы) и так далее? (Желательно русские и английские статьи) Заранее спасибо!

Andrey
04.02.2018
11:51:20
Имплементация на keras интересует.
тогда https://www.google.com/search?q=keras+text+recognition&ie=utf-8&oe=utf-8&client=firefox-b

Timur
04.02.2018
19:52:26
ребят, есть тупой вопрос достаточно. а как перевести понятие на русский skip-connection. я все никак не могу подобрать перевод. может есть какое то устоявшееся выражение?

Andrey
05.02.2018
04:06:58
Обходные соединения я бы перевел

Loki
05.02.2018
04:25:17
Имплементация на keras интересует.
https://coderprog.com/deep-learning-keras-video/

Паша
05.02.2018
05:48:23
Всем привет! Помню, тут уже мелькал подобный вопрос, но все же интересно было бы узнать, какую книжку лучше начать изучать в моей ситуации. Магистр второго курса, направление - программная инженерия. Я уже три года кручусь в ds, применял всякие алгоритмы по классификации, регресси, уменьшения пространства признаков, визуализации, кластеризации и прогнозированию временных рядов. Прочитал несколько книг по аналитике и машинному обучению, по нейронным сетям в том числе. Но не дает покоя одна мысль. Такое ощущение, что мои знания довольно поверхностные, и я сам не смогу некоторые из методов самому написать, так как не слишком глубоко владею теорией машинного обучения, так скажем. Кроме того, далеко не все формулы из книжек я понимал. Допустим, в книге "Элементы статистического обучения" я далеко не все формулы мог осилить, как будто не хватало некоторых промежуточных рассчетов для меня. Надо как-то с этим бороться, а то так и буду вечно только применять чужие алгоритмы, хочется и свой вклад как-то сделать. А без глубокого понимания даже пытаться бессмысленно, как мне кажется. Много мелькали книжки бишопа или мерфи: "Machine Learning: A Probabilistic Perspective", by Kevin P. Murphy. "Pattern Recognition and Machine Learning", by Christopher Bishop. Почитал, разные отзывы на книги, и как-то не совсем понятно, что именно лучше выбрать, чтоб понимать суть методов, а также всю математику, которая лежит в них и в их выводах. Есть ли у вас советы по этому поводу? Или может какие-то другие книжки есть? Со списком литературы на стеке знаком, хотелось бы послушать людей, которые с этой проблемой разобрались

Kamalkhan
05.02.2018
05:52:56
Всем привет! Помню, тут уже мелькал подобный вопрос, но все же интересно было бы узнать, какую книжку лучше начать изучать в моей ситуации. Магистр второго курса, направление - программная инженерия. Я уже три года кручусь в ds, применял всякие алгоритмы по классификации, регресси, уменьшения пространства признаков, визуализации, кластеризации и прогнозированию временных рядов. Прочитал несколько книг по аналитике и машинному обучению, по нейронным сетям в том числе. Но не дает покоя одна мысль. Такое ощущение, что мои знания довольно поверхностные, и я сам не смогу некоторые из методов самому написать, так как не слишком глубоко владею теорией машинного обучения, так скажем. Кроме того, далеко не все формулы из книжек я понимал. Допустим, в книге "Элементы статистического обучения" я далеко не все формулы мог осилить, как будто не хватало некоторых промежуточных рассчетов для меня. Надо как-то с этим бороться, а то так и буду вечно только применять чужие алгоритмы, хочется и свой вклад как-то сделать. А без глубокого понимания даже пытаться бессмысленно, как мне кажется. Много мелькали книжки бишопа или мерфи: "Machine Learning: A Probabilistic Perspective", by Kevin P. Murphy. "Pattern Recognition and Machine Learning", by Christopher Bishop. Почитал, разные отзывы на книги, и как-то не совсем понятно, что именно лучше выбрать, чтоб понимать суть методов, а также всю математику, которая лежит в них и в их выводах. Есть ли у вас советы по этому поводу? Или может какие-то другие книжки есть? Со списком литературы на стеке знаком, хотелось бы послушать людей, которые с этой проблемой разобрались
Могу скинуть не книги, а статьи и курсы для того чтобы «воткнуться в глубинное обучение»

Google
Kamalkhan
05.02.2018
05:53:11
Сам по нему прохожу и многие вещи становятся очень понятными и нужными

http://telegra.ph/Kak-vkatitsya-v-Deep-learning-10-24

Можно отсюда начать

Тут прям реально чтобы «воткнуться»)

Паша
05.02.2018
05:56:38
http://telegra.ph/Kak-vkatitsya-v-Deep-learning-10-24
Спасибо! По порядку идете?

Kamalkhan
05.02.2018
05:57:18
Аха, но сейчас я даже до глубинного обучения не дошел, на специализациях утонул

Но думаю как то вытащить можно)

Паша
05.02.2018
06:01:26
Спасибо, посмотрю) Хотя мне удобнее книжкой, привык что-ли. Хотя там классно, что даются сразу примеры на питоне, на входном курсе, как я понимаю

? Alex
05.02.2018
08:27:11


Dan
05.02.2018
08:29:03
Неплохая

Kamalkhan
05.02.2018
08:30:00
Обычно в таких книгах показывается практическое применение алгоритмов машинки Но геометрическое значение, вывод формул и математическое значение методов толком не объясняются;(

Паша
05.02.2018
08:41:59
Флах в помощь. Вместе с Хасти и Тибширани. А это чисто практическая поверхностная книжка
Андрей, ваше мнение мне тоже интересно по поводу той ситуации, которую я выше описал. The elements of statistical learning не получилось осилить, не смог понять вывод всех формул

Kamalkhan
05.02.2018
08:44:35
А чтонибудь более приземленное есть?
Я выше скидывал курсы, там прям вот реальное все приземленное и внятно понятное) Ну там и книги есть, но чтобы до книг дойти, нужны курсы освоить, курсы реально стоящие .

? Alex
05.02.2018
08:45:29
Спасибо. Начнем с этого

Kamalkhan
05.02.2018
08:46:22
А книга по идее классная, легко читаемая. Но будет круто если научиться программировать статьи)

Andrey
05.02.2018
08:48:15
Андрей, ваше мнение мне тоже интересно по поводу той ситуации, которую я выше описал. The elements of statistical learning не получилось осилить, не смог понять вывод всех формул
Флах кое-что дает, многое можно потянуть в пдфках к классическому курсу Andrew Ng. Shalizi "Statistics from elementary point of view", deeplearningbook (как ни странно), Николенко "Глубокое обучение".

Этого хватит для понимая почти всего, что реально нужно и полезно понимать

Serhii
05.02.2018
08:49:16
"deeplearningbook (как ни странно)" - почему как ни странно? вроде же стоящая книга

Google
Паша
05.02.2018
08:49:47
Да. Просто прикол в том, что как бы ожидаешь там жесткого диплернинга, а в итоге там хорошо дают и основы в том числе

Andrey
05.02.2018
08:50:25
Считается сложной, типа много формул

Admin
ERROR: S client not available

Andrey
05.02.2018
08:51:03
Да, там не в стиле "как нарисовать сову", а более пошагово

Паша
05.02.2018
08:52:10
После нее и захотелось подтянуть основы. Потому что уже давно такого не чувствовал, что читаешь, и прям понятно, почему так работает. Конечно, там есть сложные моменты, но написано очень годно

Спасибо за ответ, посмотрю эти книги

Andrey
05.02.2018
08:53:44
Вообще машинное обучение можно было бы преподавать слегка наоборот: вместо россыпи моделей сразу сказать, что все обучение с учителем - это или нейросети, или деревья, или KNN

И в рамках нейросетей рассказать и про регуляризацию, и про функции связи, и про метрики качества, и про функции потерь

Паша
05.02.2018
08:59:33
Слышал про такое обобщение, но на тот момент его не понял. Немного мозг поломало. Помнится, там говорилось о том, что машина опорных векторов является нейронной сетью, вроде

Serhii
05.02.2018
09:04:11
што

Andrey
05.02.2018
09:13:33
Чтобы много не писать, гугли svm loss keras

Serhii
05.02.2018
09:27:12
это про svm вместо последнего слоя?

Andrey
05.02.2018
09:41:22
Да

Timur
05.02.2018
12:34:23
Обходные соединения я бы перевел
тогда суть теряется и непонятна) в общем я решил не переводить совсем. на хабре нашел несколько статей, которые нормально вплетают английский термин в текст. решил взять их пример.

Andrey
05.02.2018
12:56:50
Как раз понятна суть, особенно если картинкой снабдить

Nick
05.02.2018
14:34:22
Погуглил swm loss keras и нормального примера не нашёл. Может, у вас есть ссылка?

Sergey
05.02.2018
14:34:32
svm loss

или hinge loss

гуглится норм

蜜蜂P助
05.02.2018
14:37:25
Hello friends, do you have link of groups recommended for English users and discussion? hope not interrupt you guys' chats. : )

Google

Страница 223 из 327