
Tony
21.11.2017
20:05:56
Каждую итерацию в массив нампай добавляется подмассив, состоящий из двух элементов. Как реализовать? У меня постоянно вылетает ошибка размерности

Vyaches
21.11.2017
20:11:12
чорт

Dan
21.11.2017
20:11:23
уже было

Tony
21.11.2017
20:11:28

Google

Tony
21.11.2017
20:11:28
неверно добавляет

Dan
21.11.2017
20:11:41
https://t.me/bigdata_ru/18031

Vyaches
21.11.2017
20:14:19
Упс. затупил :D

Alexander
21.11.2017
20:15:24

Tony
21.11.2017
20:15:55
шо за яйца

Alexander
21.11.2017
20:16:31
имхо вообще надо сразу объявить массив правильного размера, потому что память, указатели и все такое.

Tony
21.11.2017
20:18:10
а
понимаю, о чем ты

Alexander
21.11.2017
20:19:46
понимаю, о чем ты
поэтому "добавлять" неправильно. надо в созданном массиве менять значения. больше бойлерплейт кода, кровавый энтерпрайз и все такое.

Tony
21.11.2017
20:20:13
имхо вообще надо сразу объявить массив правильного размера, потому что память, указатели и все такое.
mens_names = np.array(['MA', 'MB', 'MC', 'MD', 'ME'])
womens_names = np.array(['WA', 'WB', 'WC', 'WD', 'WE'])
pairs = np.array([])
хмммм, надо поставить в соответствие мужским именам None, которое в процессе будет заменено на женское, наиболее подходящей

Google

Tony
21.11.2017
20:26:12
mens_names = np.array(['MA', 'MB', 'MC', 'MD', 'ME'])
womens_names = np.array(['WA', 'WB', 'WC', 'WD', 'WE'])
pairs = np.array([])
хмммм, надо поставить в соответствие мужским именам None, которое в процессе будет заменено на женское, наиболее подходящей
записать в 2 строки и транспонировать
есть проще варианты?
mens_names = np.array(['MA', 'MB', 'MC', 'MD', 'ME'])
womens_names = np.array(['WA', 'WB', 'WC', 'WD', 'WE'])
pairs = np.array([mens_names, np.zeros(len(mens_names), dtype=np.int_)]).transpose()
вот как решил

Farruh
22.11.2017
06:43:46
Добрый день, подскажите ресурсы где можно почитать про автоматическое тегирование контента с помощью AI

Артем
22.11.2017
06:51:05

Farruh
22.11.2017
06:52:32

Артем
22.11.2017
06:55:18
их очень много. Проще у гугле искать конкретную задачу. Первый запрос в гугле https://www.quora.com/What-are-good-sources-to-find-labeled-dataset-for-document-topic-classification-projects

Farruh
22.11.2017
06:59:31

Sanjhon
22.11.2017
06:59:53
hi
this is santosh

Ristle
22.11.2017
06:59:59
Hi

Sanjhon
22.11.2017
07:00:19
could u chat in english
then its ease for me

Artem
22.11.2017
07:00:49

Артем
22.11.2017
07:03:05
от алгоритма зависит. Например IF-IDF bkb байес ищет редко встречающиесяслова, характерные для определённого класса. Если будут слова с хорошей предсказательной силой - и 2-3 будет достаточно.

Farruh
22.11.2017
07:06:45

Sanjhon
22.11.2017
07:08:14
what is the use of distrubted cache

Tony
22.11.2017
07:59:42
как выглядит запрос, который возвращает индекс, где занято только одно поле?
array([['MA', 'WD'],
['MB', 'WB'],
['MC', '0'],
['MD', '0'],
['ME', '0']],
dtype='<U21')

Google

Tony
22.11.2017
07:59:48
может знает кто?

tonko
22.11.2017
08:17:41
че сделать то надо?

Tony
22.11.2017
08:18:18
вернуть индексы, где на втором месте ничего не стоит
0 то есть

tonko
22.11.2017
08:19:25
filter(lambda x: x[1]=="0", arr) поидее даст сами ячейки, если они уникальные, то дальше [arr.index(row) for row in filtered_arr]

Tony
22.11.2017
08:19:58
средствами питона то есть
я просто хотел чистым нампаем сделать
через where и тому подобным

Henadz
22.11.2017
08:21:24

Nikolay
22.11.2017
08:21:49
векторные операции должны быть

Henadz
22.11.2017
08:24:22
a[ a[:,1] == '0' ]
так лучше?

Nikolay
22.11.2017
08:26:57
Да

Tony
22.11.2017
10:08:07
может кто-то уже реализовывал оценку текста на положительное/отрицательное высказывание?
поделитесь, если да, пожалуйста

Nikolay
22.11.2017
10:20:18

Tony
22.11.2017
10:20:32

Nikolay
22.11.2017
10:20:49

Google

Tony
22.11.2017
10:22:11
классификация с логистической функцией надо
в интернете в большинстве случаев старое
либо на джаве

Admin
ERROR: S client not available

Nikolay
22.11.2017
10:22:40

Evgeniy
22.11.2017
10:29:30
как и все остальные его вопросы?♂

Nikolay
22.11.2017
10:30:16

Andrey
22.11.2017
10:30:54

Nikolay
22.11.2017
10:31:34

Tony
22.11.2017
10:32:16

Nikolay
22.11.2017
10:32:40
...
что? ты сразу отнес на свой счет?

Tony
22.11.2017
10:32:51
ну понятно, о ком ты
ответы абсолютно на все вопросы можно найти в гугле, тогда зачем эти чаты в тг?

Руслан
22.11.2017
10:40:48
кто знает, как нужно правильно менять входной embedding слой у уже обученной нейросети (keras)?
network.layers[0] = Embedding(w2v.vocabulary_size() + 1, w2v.vector_dim(), input_length=max_length, weights=[w2v.weights()], trainable=False)
вот так вроде не совсем верно

Sergey
22.11.2017
10:42:50

tonko
22.11.2017
10:43:31
ну а ищущей стороне это зачем нужно? жду кнопки для монетизации

Drino
22.11.2017
10:44:26

Руслан
22.11.2017
10:44:28
Почему неверно?
когда глазами смотришь на результаты работы - вообще не соответствует реальности, хотя на cv очень хорошие метрики

Google

Руслан
22.11.2017
10:45:49
менять слой надо из-за того что новые незнакомые слова могут встречаться, а w2v модель от fasttext может предугадывать вектора для незнакомых слов, поэтому каждый раз нужно обновлять входной слой с новыми весами и размером словаря
возможно надо сообщить следующему слою, что предыдущий обновился, но что-то не гуглится

Evgeniy
22.11.2017
10:56:09

?
22.11.2017
10:58:45
ты приходишь задать свой вопрос по sentiment analysis, но делаешь это без уважения

Sergey
22.11.2017
11:00:03

?
22.11.2017
11:01:00
а вот тоже хотел спросить, есть какой-нить канал на тему статистики/машинленинг, но для ньюбов, типа песочницы, где жжеными тряпками по лицу не надают за вопросы?

Sergey
22.11.2017
11:01:43
Есть песочница открытого курса OpenDataScience

?
22.11.2017
11:02:28
в слаке?

Oleksandr
22.11.2017
11:06:28
можешь меня назвать

?
22.11.2017
11:07:00
спасибо

Nikolay
22.11.2017
11:07:02
или меня)

Tony
22.11.2017
11:08:04

Igor
22.11.2017
11:08:41
https://www.kaggle.com/ngyptr/python-nltk-sentiment-analysis

Evgeniy
22.11.2017
11:15:23