
Alexander
15.03.2018
08:16:27
Вчера ночью Гугл выложил в опенсорс свою текущую реализацию системы семантической сегментации на tensorflow. Непонятно?
Это система, позволяющая различить какая область фотографии чем занята. Говоря очень грубо, компьютер понимает где на фотографии человек, где дом, где машина и так далее. Это важно не только для каких-то сложных штук (вроде самоуправляемый автомобилей), но и для банального размытия фона на фотографиях. Собственно для этого изначально deeplab и использовался для обработки фотографий.
Кроме исходных кодов реализации Гугл так же щедро выложил и уже предтренированные модели. Пользуйтесь, я сегодня вечером тоже попробую.
https://research.googleblog.com/2018/03/semantic-image-segmentation-with.html
мопед не мой

Paul
15.03.2018
09:29:43
Норм ?
Надо юзать

Google

Dan
15.03.2018
15:40:53
@noexpr здесь нельзя вакансить
(пока еще)

Alexey
15.03.2018
15:41:24

Dan
15.03.2018
15:42:00
Посмотрите чаты и каналы с вакансиями. Например тут github.com/goq/telegram-list или в гугле

Roman
15.03.2018
15:42:31

Dan
15.03.2018
15:42:31
Не то, чтобы я был против одной хорошей вакансии, но HRы не дремлют, и если кому-то одному можно, то "а почему мне нельзя?" и начнётся снова ад из вакансий

Alexey
15.03.2018
15:45:22
А эдвайзера то можно тут поискать в проект?))

Andrey
15.03.2018
15:51:23

Vyaches
15.03.2018
17:10:15
Народ, может кто в курсе, есть ли БД которые осуществляют поиск по базе n-мерного протсранства? Конкретно - 128- мерного. Ну, типа, есть вектор, и нужно по нему найти ближайший вектор в БД.

Dmitry
15.03.2018
17:11:42
https://github.com/facebookresearch/faiss

Vyaches
15.03.2018
17:13:10
спс, но мне б в бд это всё запихнуть. Типа sql там какого-нибудь

Andrey
15.03.2018
17:15:24

Vyaches
15.03.2018
17:16:41

Google

Andrey
15.03.2018
17:17:18

Vyaches
15.03.2018
17:18:37

Dmitry
15.03.2018
17:49:14
спс, но мне б в бд это всё запихнуть. Типа sql там какого-нибудь
за o(n) можно найти прямым sql запросом, но если нужно быстрее, потребуется индекс, и я не знаю бд, которые бы предлагали такие индексы. если данные обновляются редко, можно хранить сущности в бд и использовать faiss как внешний индекс, он позволяет сохранять построенный индекс в файл

dot
16.03.2018
06:35:15
Всем привет, скажите а как правильно сканировать изображения рисунков начерченых на бумаге ручкой ? Чтобы на их основе натренировать сеть рисовать фигуры

Sergey
16.03.2018
06:37:15
на сколько я в курсе... можно просто фоткать.. или вебка... или даже самому рисовать в пейнте. главное нормализовать потом правильно

dot
16.03.2018
06:38:09
а из чего этот процесс состоит ?? В Керасе уже есть эти функции ?

Sergey
16.03.2018
06:39:10
подробно разжеваная хабростатейка
https://habrahabr.ru/company/wunderfund/blog/314242/

dot
16.03.2018
06:39:30
Спасибо большое , почитаю :)

Sergey
16.03.2018
06:40:31
там какраз есть пример кода про картинки. дело по хорошему совдится что бы представить правильно данные в тот же керас

dot
16.03.2018
07:38:06
А какие настройки лучше выбрать для сканера когда сканируешь рисунки из альбомов ?

Sergey
16.03.2018
07:44:46
увы сканера нету ) но думаю зависит от способа обработки (нормализации) ну и архитектуы сети.... я не заморачивался и просто фоткал на телефон %) вебки тоже нету )) думаю более опытные старожили сумеют подсказать

dot
16.03.2018
07:57:40
Ок всеравно спасибо, надеюсь :) А то я думаю сразу в чернобелом формате сканировать чтобы лишнюю инфу отсечь , но незнаю нужно это или нет.

Sergey
16.03.2018
08:00:03
ну смотря под что расчитывать.... по хорошему приведение в оттенки серого делается достаточно просто

dot
16.03.2018
08:06:22
ну это да, в opencv есть такие методы, просто я буду штук 100 изображений сканить поэтому думаю как бы все грамотно сделать.

Alex
16.03.2018
11:45:28
Кстати, насчёт "векторных бд" и similarity search. Есть словарь в pickle, где каждому ключу соответствует набор пар векторов. Где бы это лучше хранить и откуда быстрее читать?
Или в таком кейсе pickle - оптимальное решение?

Evgeniy
16.03.2018
11:55:34

Alex
16.03.2018
11:56:55
Очень много и все равно довольно долго пробегает

Evgeniy
16.03.2018
12:00:57

Dmitry
16.03.2018
14:13:01

Google

Dmitry
16.03.2018
14:16:05
Во втором случае есть известный антипаттерн описанный тут Не из-за этого https://stackoverflow.com/questions/19103785/efficient-dictionary-searching а так питоний хэш должен быстро работать. Если ключи должны быть упорядочены, нужно взять дерево. А если набор пар векторов это ключ - то faiss как минимум ускорит, хотя метрика мне в такой формулировке не понятна

Alex
16.03.2018
14:18:52
Спасибо за ссылку, посмотрю

Roman
16.03.2018
14:32:53
Я же говорил)

Ekaterina
16.03.2018
15:33:18
Люди, помогите пожалуйста))) вот у меня есть датасет с набором транзакций , который совершал какой то пользователь и я хочу их кластеризовать на те которые были произведена рядом с домом и работой, но не могу понять, как запихнуть такой датасет на котором можно было бы построить модель кластеризатора. Может надо Циклом каждый раз для каждого пользователя делить?
Просто везде примеры , где одному объекту соответствует одна строка признаков , а тут их много

Артем
16.03.2018
15:44:10
вам надо транспонировать датасет. Условно, сейчас у вас клиент1: [операция1, операция2, операция3], надо: клиент1, операция1;клиент1, операция2;клиент1, операция3

Сергей
16.03.2018
15:44:49
Наверно, будет лучше если вы приведёте пример датасета

Roman
16.03.2018
15:46:01

Ekaterina
16.03.2018
15:47:29
Нет, у меня как раз наоборот, клиент 1 операция , потом следующая строка клиент операция

Admin
ERROR: S client not available

Ekaterina
16.03.2018
15:47:54
А я не могу понять , как кластеризовать операции который совершает один клиент , если у меня клиентов много

Артем
16.03.2018
15:49:19
вы для каждого клиента хотите кластеры построить?

Ekaterina
16.03.2018
15:49:46
Да

Артем
16.03.2018
15:55:33
тогда да, разбиваете датасет по клиентам и для каждого строите кластер. Другое вопрос, что у вас будет Over 9000 кластеров и что вы хотите с ними делать дальше? )

Ekaterina
16.03.2018
15:57:13
Ну я хочу все его операции разбить на 2 кластера и потом по ним уже предсказать , где будет находится точка
Или я совсем дурак и таким образом я ничего не добьюсь ?

Артем
16.03.2018
16:00:39
кластеризация не поможет в предсказаниях. Это алгоритм без обучения, максимум что вы узнаете - есть ли некоторое устойчивое кол-во групп транзакций. И уже после этого строить алгоритм прогнозирования

Ekaterina
16.03.2018
16:00:58
Смысл в том что у меня есть координаты и я хочу взять и сделать два квадрата , в которые влезают наибольшее количество точек , а потом когда я уже сгруппирую их таким образом -эти квадраты и будет предсказанный адрес
Вот я так и хочу, чтобы потом на них прогнозирование построить

Google

Ekaterina
16.03.2018
16:01:54
А потом их уже регрессором обработать
Это не очень?))
И потом модель регресси получается тоже циклом строить ?

Alex
16.03.2018
16:08:59
Вы можете кластеризовать, а потом уже использовать эти данные для обучения какого-то классификатора

Ekaterina
16.03.2018
16:10:11
Спасибо)

Николай
17.03.2018
19:22:59
#вопрос
Подскажите толковый учебник по статистике где будут просто и понятно донесены основные концепции не только текстом но и графически?
Спасибо

wi34rd
17.03.2018
19:24:41
https://www.livelib.ru/book/1000537245-head-first-statistics-dawn-griffiths

Николай
17.03.2018
19:39:16

Alexey
18.03.2018
06:20:46
Статистика и котики?)

Артем
18.03.2018
08:01:42
У udacity есть отличный курс по статистике. На английском, правда.

wi34rd
18.03.2018
08:07:36
https://www.udacity.com/course/intro-to-statistics--st101 этот ?

Dan
18.03.2018
08:23:04
Полезная информация от наших друзей.
22 марта в 20:00 — онлайн день открытых дверей курса “Разработчик BigData”.
Проходите тестирование и подключайтесь https://otus.pw/6tQ5/
Ответим на все вопросы о программе, расскажем про обучение, перспективы трудоустройства и про особые условия для выпускников от компании-партнера курса. По традиции разыграем бесплатные места на курсе для успешно прошедших вступительное тестирование. До встречи!

Ankit
18.03.2018
16:45:00
Can someone share the content for data science .?