
benedict
30.03.2017
10:50:55
А такой вопрос: в data science джуны за еду вообще нужны? Или везде только с опытом? Прост, я готов и бесплатно вписаться, лишь бы обучали и опыт капал.
Бэкграунд: 2 года системного программирования(С/С++/Assm), из них рабочий опыт 3 месяца над гос.заказом в сфере операционных систем. Data Science только-только начал осваивать. В питон могу, но слабо, т.к. либы не знаю практически. Сейчас пока мат.часть ботаю: introduction to statistical learning, потом хочу уже серьезную statistical learning освоить, а дальше уже можно deeplearningbook. Параллельно ещё специализация на курсере от МФТИ.
Вообще, как стоит выстроить программу обучения, чтобы просто "за еду" взяли? Потому что там обучение в разы быстрее уже пойдёт.
Я могу ошибаться конечно в данном конкретном случае, но знаю людей которые закладывают полгода-год для переквалификации. С учетом того что уже специалисты в чем то. А потом можно уже и идти на джуна.

Алина
30.03.2017
10:52:36

benedict
30.03.2017
10:56:11

Вячеслав
30.03.2017
13:05:30
Всем привет
У меня возникла проблема при обучение cnn для распознания кошек и собак
За несколько эпох loss перестает меняться а точность ведет себя рандомно
Помогите найти ошибку кому не сложно )
http://stackoverflow.com/questions/43118676/training-cnn-behaves-very-strangely-tensorflow

Google

Вячеслав
30.03.2017
13:06:37
вот полный код
за помощь и объяснение ошибки награда 1000руб

Le0nX
30.03.2017
13:12:09
Там как раз первая cnn в курсе разбиралась на кошках и собаках через Theano
http://forums.fast.ai/


Petr
30.03.2017
13:16:56
У Вас размерности, на мой взгляд, маленькие взяты.
x = tf.placeholder(tf.float32, [None, x_train.shape[1]])
y_ = tf.placeholder(tf.float32, [None, y_train.shape[1]])
w_conv1 = weight_variable([5, 5, 3, 32])
b_conv1 = bias_variable([32])
x_image = tf.reshape(x, [-1, 32, 32, 3])
h_conv1 = tf.nn.relu(conv2d(x_image, w_conv1) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)
w_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1, w_conv2) + b_conv2)
h_pool2 = max_pool_2x2(h_conv2)
w_fc1 = weight_variable([8 * 8 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 8 * 8 * 64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, w_fc1) + b_fc1)
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
w_fc2 = weight_variable([1024, 2])
b_fc2 = bias_variable([2])
y_conv = tf.matmul(h_fc1_drop, w_fc2) + b_fc2
cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))


Вячеслав
30.03.2017
13:25:01
У Вас размерности, на мой взгляд, маленькие взяты.
x = tf.placeholder(tf.float32, [None, x_train.shape[1]])
y_ = tf.placeholder(tf.float32, [None, y_train.shape[1]])
w_conv1 = weight_variable([5, 5, 3, 32])
b_conv1 = bias_variable([32])
x_image = tf.reshape(x, [-1, 32, 32, 3])
h_conv1 = tf.nn.relu(conv2d(x_image, w_conv1) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)
w_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1, w_conv2) + b_conv2)
h_pool2 = max_pool_2x2(h_conv2)
w_fc1 = weight_variable([8 * 8 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 8 * 8 * 64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, w_fc1) + b_fc1)
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
w_fc2 = weight_variable([1024, 2])
b_fc2 = bias_variable([2])
y_conv = tf.matmul(h_fc1_drop, w_fc2) + b_fc2
cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
я эксперементировал и с размерностями и с гиперпараметрами
всегда одно и тоже
я и архитектуры разные пробывал


Petr
30.03.2017
13:46:53
И всё же вниматльней перепроверьте. Представленный Вами на SO код избыточен для данной задачи, а размерности малы. Не так давно делал на собеседовании такую же задачу, код которой и привёл. Точность 91%.
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
counter = max_counter = max_accuracy = 0
while True:
counter += 1
indexes = np.random.randint(x_train.shape[0], size=50)
if counter % 100 == 0:
accuracy_ = sess.run(accuracy, feed_dict={x: x_test, y_: y_test, keep_prob: 1.0})
if accuracy_ > max_accuracy:
max_accuracy = accuracy_
max_counter = counter
print(counter, '-->', accuracy_, '|', max_counter, '-->', max_accuracy)
if accuracy_ >= 0.9:
break
sess.run(train_step, feed_dict={x: x_train[indexes], y_: y_train[indexes], keep_prob: 0.5})
print(confusion_matrix(sess.run(tf.argmax(y_, 1), feed_dict={y_: y_test}),
sess.run(tf.argmax(y_conv, 1), feed_dict={x: x_test, keep_prob: 1.0})))

V
30.03.2017
13:48:23
Обновите телеграмм, теперь звонить можно

Professor
30.03.2017
13:48:49
У кого не заработают звонки - напишите в личку, отзвонюсь вам и звонить можно будет.

Google

Myst~Dyn (PL240) / Fhj (PL185) / Dynortice (PL130) ??
30.03.2017
13:51:30
Так, походу же, можно звонить тем, кто в Западной Европе находится

Maksym
30.03.2017
13:51:55

Myst~Dyn (PL240) / Fhj (PL185) / Dynortice (PL130) ??
30.03.2017
13:52:05
Хм

Maksym
30.03.2017
14:04:32


Вячеслав
30.03.2017
14:32:04
И всё же вниматльней перепроверьте. Представленный Вами на SO код избыточен для данной задачи, а размерности малы. Не так давно делал на собеседовании такую же задачу, код которой и привёл. Точность 91%.
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
counter = max_counter = max_accuracy = 0
while True:
counter += 1
indexes = np.random.randint(x_train.shape[0], size=50)
if counter % 100 == 0:
accuracy_ = sess.run(accuracy, feed_dict={x: x_test, y_: y_test, keep_prob: 1.0})
if accuracy_ > max_accuracy:
max_accuracy = accuracy_
max_counter = counter
print(counter, '-->', accuracy_, '|', max_counter, '-->', max_accuracy)
if accuracy_ >= 0.9:
break
sess.run(train_step, feed_dict={x: x_train[indexes], y_: y_train[indexes], keep_prob: 0.5})
print(confusion_matrix(sess.run(tf.argmax(y_, 1), feed_dict={y_: y_test}),
sess.run(tf.argmax(y_conv, 1), feed_dict={x: x_test, keep_prob: 1.0})))
это к сожалению тоже не помогло


Волчик
30.03.2017
15:12:16
Какие есть вообще алгоритмы (включая нейросети мб) перцептивного хеширования изображений?

Vito
30.03.2017
15:17:39
т. е. могу набрать

Nick
30.03.2017
15:25:03

Волчик
30.03.2017
15:29:01
Опишите задачу, пожалуйста
нужно определять "одинаковые" изображения независимо от трансформаций: масштабирования, поворота и так же обрезки (целая картинка и её половина должны иметь малую дистанцию при сравнении)
но мне скорее всего понадобятся в дальнейшем более мощные средства вроде SSDH, так что я хочу какой-нибудь обзор решений увидеть, если такой уже составляли

Nick
30.03.2017
15:32:08
Что в вашем случае значит "одинаковость"? Картинка целиком или какие-то отдельные признаки?

Волчик
30.03.2017
15:34:26
попиксельная идентичность
одно и то же изображение, но повернутое, обрезанное по краям например, может быть с небольшим шумом поверх

Gabriel
30.03.2017
16:36:25

Ksenia
30.03.2017
16:36:54

Gabriel
30.03.2017
16:40:24
Не могу сказать; в остальных постах обсуждалось другое.
Как приведут историю неуспеха, напишу, что не согласен)

yopp
30.03.2017
16:53:20
Это, а никто дампа телеграмных чатов не встречал?
групп в смысле. а в виде json api ответов?

Ksenia
30.03.2017
18:02:40
Есть тьма сайтов, которые парсят каналы, насчет чатов не в курсе

Google

Ksenia
30.03.2017
18:02:51
Почему бы собственно и нет

Вячеслав
30.03.2017
18:31:01
А ктонибуть юзает https://www.floydhub.com/?
или какиенибуть другие похожие облака
посоветуйте что то хорошее плз

Сергей
30.03.2017
20:58:02
Ребяяяяят. Очень нужна помощь. Пытаюсь обучить сеть. Использую caffe, взял deploy, solver и train файлы из alexnet вроде, только изменил что в слое InnerProduct 11 выходов (у меня столько классов). Пока обучаю сеть максимум 10 итераций (просто чтоб проверить что это работает), но на любую картинку выдает одну и ту же категорию. В чем моя ошибка?
Это разные фото
А вот код

Ayrana
30.03.2017
21:57:31
Скриншот кода ?

Сергей
30.03.2017
22:37:41
Ну так красивее, чем просто скинуть код ?

Kirill
30.03.2017
22:45:13
`
\`\`\` code \`\`\`
like this

Fyodor
30.03.2017
23:26:43
like this

Artem
31.03.2017
04:14:20
Есть же гист, ну

Сергей
31.03.2017
05:03:44

Google

Artem
31.03.2017
05:04:10

Сергей
31.03.2017
05:04:58
Для каждого разное. Где-то по 800 фото, а где-то 100

Artem
31.03.2017
05:07:22
Читайте о dealing with biased train dataset

Admin
ERROR: S client not available

Сергей
31.03.2017
05:09:01
Это корень всех зол
А если фотографии будут повторяться это будет нормально ? Или лучше применить хоть какую-то трансформацию?

Artem
31.03.2017
05:09:35

Сергей
31.03.2017
05:17:13

Artem
31.03.2017
05:18:18
Хотя у кафи есть слой прямо ауг, вроде бы

Сергей
31.03.2017
05:30:43

Artem
31.03.2017
05:47:24
А если я просто оставлю везде одинаковое количество фото, это должно решить проблему? Но сильно увеличится ошибка?
Ну, вы экспериментируйте, для каждой ситуации все по-разному. Вообще добавить один слой в кафе, вроде, несложно. Плюс не знаю, неужели всякие алекснеты по дефолту его не содержат?
Это может решить проблему, а может и не решить. Я не знаю, в чем у вас там дело.
Кстати, если уж только въезжаете — рекоммендую керас, а не кафе
Волобуев! Вот ваш меч!

Александр
31.03.2017
06:17:39
Там было другое слово)

Igor
31.03.2017
08:42:07
гре арендовать сервер с gpu ? чтобы цены были норм и подключили быстро , надо срочно

Denis
31.03.2017
08:44:44

Igor
31.03.2017
08:46:22
по поводу hyperlee можешь подробнее рассказать ?цены вроде очень привлекательные ,про hetzner слышал ,друг пользовался

Denis
31.03.2017
08:50:37

Le0nX
31.03.2017
08:52:21
https://www.floydhub.com/
Простой хостинг для DL GPU.
С free тарифом (100 часов?), поддерживает jupyter, своя консольная утилита.
FloydHub is Heroku for DL
Platform-as-a-Service for training and deploying your DL models in the cloud. Start running your first project in < 30 sec! Floyd takes care of the grunt work so you can focus on the core of your problem.

Google

Le0nX
31.03.2017
08:52:21

Anatoliy
31.03.2017
08:53:13
Всем привет! Подскажите пожалуйста, чем можно мониторить PostgreSQL БД? Интересуют аналоги awr/ash как для Oracle.

Igor
31.03.2017
08:53:47
спасибо. сейчас попробую всем позвонить ,посмотрим кто сможет быстрее подключить
hyperlee подключили , всем спасибо ✌?

Daniil
31.03.2017
13:09:28
Всем привет. Вопрос следующий: как подойти к выбору критерия для обнаружения аномалий во временных рядах?
Посоветуйте материал какой-нибудь.
Выбору алгоритма, точнее

Constantine
31.03.2017
13:53:27
google ARIMA

Daniil
31.03.2017
13:57:33
о, спасибо) заодно как раз нашёл переписанную с R на питон AnomalyDetection от твиттера

Марат
31.03.2017
13:58:35
предварительно бд надо настроить для сбора информации

Daniil
31.03.2017
13:59:30
а почему не в тот?)
не бейте, если что)) я нубас
хаха