@bigdata_ru

Страница 172 из 327
Mikhail
09.11.2017
10:55:07
Понять - да. Придумать — попробуй.

Это чистой воды Computer Science. Много у вас в окружении программистов, которые этим каждый день занимаются?

Henadz
09.11.2017
10:56:59
Понять - да. Придумать — попробуй.
так а при чём тут придумать? речь изначально шла о том, что чтобы успешно применять концепции ML/DL, надо бы понимать их математическую подоплёку. Выдумывать новые архитектуры никто не требует

Mikhail
09.11.2017
10:57:13
Все же берут данные из одной колонки, перекладывают в другую, двигают пиксели по экрану.

Google
Henadz
09.11.2017
10:57:28
конечно выдумывать подобное нужно очень редко

если нужно вообще

Mikhail
09.11.2017
10:57:50
ну вот пригодилось в Кваке

Henadz
09.11.2017
10:58:53
а вот понять, как работают всякие PCA TSNE, имхо важно, чтобы уметь это правильно интерпретировать

точно так же, как и кучу других концепций в МЛе

Alexander
09.11.2017
11:53:03
Ткните носом пожалуйста в ссылку на гитхабе с сорцами numpy.dot(). Я не очень понимаю, как пакеты в питоне устроены, не могу найти сорцы



отличия в 3-м знаке, а разница в 19 порядков

Черный
09.11.2017
12:04:47
корни, скорее всего, в особенностях представления вещественных чисел компьютером в виде чисел с плавающей точкой, а не в питоне и не в нампи

Alexander
09.11.2017
12:10:06
корни, скорее всего, в особенностях представления вещественных чисел компьютером в виде чисел с плавающей точкой, а не в питоне и не в нампи
хм, проверка на типы возвращает <type 'numpy.float32'> <type 'numpy.float64'> и как разрядность может влиять на результат?

Я вывел разность векторов. Абсолютная разница в 3 знаке начинается. А разница перемножении матрицы на себя - 19 порядков. При том, что характерный порядок значений в матрице первый



Igor
09.11.2017
13:24:27
In [56]: print(np.dot(bb, bb)) 0.02 In [57]: print(np.dot(aa, aa)) 0.02 Что я делаю не так?

Google
Igor
09.11.2017
13:24:35
Напишите версии своих пайтонов и numpy

И разрядность ОС

Drino
09.11.2017
13:24:52
c21 = c1 - c2, конечно

Можно даже конвертнуть в float32, для некоторой чистоты эксперимента.

Alexander
09.11.2017
13:27:01
И разрядность ОС
питон 2.7, нампи 1.13.3, макос последний х64

Igor
09.11.2017
13:28:28
https://github.com/numpy/numpy/blob/c90d7c94fd2077d0beca48fa89a423da2b0bb663/numpy/core/src/multiarray/arraytypes.c.src#L3294 Сорcы здесь, может поможет

Igor
09.11.2017
13:32:06
Баг на 2.7 воспроизвести не удается In [7]: a = np.float32(0.1) In [8]: aa = np.array([a, a]) In [9]: b = np.float64(0.1) In [10]: bb = np.array([b,b]) In [11]: np.dot(bb, bb) Out[11]: 0.020000000000000004 In [12]: np.dot(aa, aa) Out[12]: 0.020000001



Alexander
09.11.2017
13:36:36
Ksush
09.11.2017
13:47:43
Гайз, привет! Я перевожу статью про ML, попался сложноперевариваемый абзац про «product design». Если среди вас есть добровольцы, буду очень признательна за помощь с переводом на человеческий.

Ksush
09.11.2017
13:49:54
А есть уже переведенные?)
Переведенные статьи? Переведенные абзацы? Переведенные добровольцы? :D

Vyaches
09.11.2017
13:51:02
Переведенные статьи? Переведенные абзацы? Переведенные добровольцы? :D
Ха-хааа... :DD Ну а вообще - общий смысл вашего сообщения про статью, первые несколько слов в нем опять же про статью... и Поэтомууу... Да, я про то, есть ли уже переведенные статьи :D

Vyaches
09.11.2017
13:52:15
ссылку, плз. Интересно почитать :)

Dan
09.11.2017
15:14:51
Коллеги. @NataMakarova из Яндекса приглашает всех желающих на митап по умным рекламным технологиям, релевантным теме нашей группы (machine learning, data science, и всё такое). Первоначальная ссылка от Наталии была с bit.ly, но по какой-то причине Роскомнадзор решил не показывать жителям РФ эту ссылку. Поэтому рекомендуется проходить напрямую на сайт яндекса: https://events.yandex.ru/events/meetings/21-nov-2017/ Как обычно: бесплатно. регистрация обязательна. трансляция будет.

Vova
10.11.2017
13:28:31
Коллеги, FastICA - получается хороший результат для core-функции нелинейности Cube, а с logcosh (лог-Коши) - имеются проблемы (неустойчивое, бинарное решение). Есть какие то гайдансы почему Cube, logcosh или иные кёрнелы?

Google
Dan
10.11.2017
13:30:16
Sonya у нас вакансии под запретом, простите. В списке есть профильные чаты и каналы с вакансиями: github.com/goq/telegram-list

Dan
10.11.2017
13:59:43
Коллеги, хотели еще с утра вам рассказать. В общем, платформа TrainMyData.com запустила конкурс по предсказанию продаж компании ascott group с призовым фондом в 525 000 рублей. Участие открыто для всех желающих! Спешите участвовать! По любым интересующим вопросам можно писать в официальный чат в телеграме: @trainmydata. #конкурс #полезное #интересное ?

https://www.kaggle.com/surveys/2017

Timofey
11.11.2017
10:20:40
https://www.kaggle.com/surveys/2017
Большое спасибо!

Herman
11.11.2017
10:49:06
https://www.kaggle.com/surveys/2017
в Украине в 2 раза выше доход, чем в России

интересно, почему?

/dev
11.11.2017
11:09:33
интересно, почему?
потому что яндексы и мейлрушечки платят драмматически ниже рынка

Herman
11.11.2017
11:10:34
потому что яндексы и мейлрушечки платят драмматически ниже рынка
ну если они формируют большую часть рынка, то платят они по рынку =D

/dev
11.11.2017
11:11:03
ну если они формируют большую часть рынка, то платят они по рынку =D
так "рынок" благодаря этому формированию массово покинул родину в 2014м

Herman
11.11.2017
11:14:00
нет, просто у нас очень много умных людей, которые занимаются data science, оттого и платят так мало - рук больше, чем работы

Herman
11.11.2017
11:18:02
да. оттого там и платят выше чем везде

Antonio
11.11.2017
11:39:48
https://ria.ru/economy/20171111/1508616511.html так оказываетя не только майнеры виноваты в таких ценах на видюхи

Страница 172 из 327