@bigdata_ru

Страница 182 из 327
Tony
21.11.2017
20:05:56
Каждую итерацию в массив нампай добавляется подмассив, состоящий из двух элементов. Как реализовать? У меня постоянно вылетает ошибка размерности

Vyaches
21.11.2017
20:11:12
чорт

Dan
21.11.2017
20:11:23
уже было

Tony
21.11.2017
20:11:28


Google
Tony
21.11.2017
20:11:28


неверно добавляет

Dan
21.11.2017
20:11:41
https://t.me/bigdata_ru/18031

Vyaches
21.11.2017
20:14:19
Упс. затупил :D

Tony
21.11.2017
20:15:55
шо за яйца

Alexander
21.11.2017
20:16:31
имхо вообще надо сразу объявить массив правильного размера, потому что память, указатели и все такое.

Alexander
21.11.2017
20:19:46
понимаю, о чем ты
поэтому "добавлять" неправильно. надо в созданном массиве менять значения. больше бойлерплейт кода, кровавый энтерпрайз и все такое.

Tony
21.11.2017
20:20:13
имхо вообще надо сразу объявить массив правильного размера, потому что память, указатели и все такое.
mens_names = np.array(['MA', 'MB', 'MC', 'MD', 'ME']) womens_names = np.array(['WA', 'WB', 'WC', 'WD', 'WE']) pairs = np.array([]) хмммм, надо поставить в соответствие мужским именам None, которое в процессе будет заменено на женское, наиболее подходящей

Google
Tony
21.11.2017
20:26:12
есть проще варианты?



mens_names = np.array(['MA', 'MB', 'MC', 'MD', 'ME']) womens_names = np.array(['WA', 'WB', 'WC', 'WD', 'WE']) pairs = np.array([mens_names, np.zeros(len(mens_names), dtype=np.int_)]).transpose()

вот как решил

Farruh
22.11.2017
06:43:46
Добрый день, подскажите ресурсы где можно почитать про автоматическое тегирование контента с помощью AI

Farruh
22.11.2017
06:52:32
начать можно отсюда https://en.wikipedia.org/wiki/Document_classification
Спасибо, есть статьи, датасеты чтобы экспериментировать и проверить? Может быть книжки

Артем
22.11.2017
06:55:18
их очень много. Проще у гугле искать конкретную задачу. Первый запрос в гугле https://www.quora.com/What-are-good-sources-to-find-labeled-dataset-for-document-topic-classification-projects

Farruh
22.11.2017
06:59:31
их очень много. Проще у гугле искать конкретную задачу. Первый запрос в гугле https://www.quora.com/What-are-good-sources-to-find-labeled-dataset-for-document-topic-classification-projects
спасибо, начал изучать. Еще вопросик, размер текста каждого блока имеет значение, напимер по 40-50 слов (после удаление стоп слов). Возможно будет классифицировать по тегам или этого мало?

Sanjhon
22.11.2017
06:59:53
hi

this is santosh

Ristle
22.11.2017
06:59:59
Hi

Sanjhon
22.11.2017
07:00:19
could u chat in english

then its ease for me

Artem
22.11.2017
07:00:49
Артем
22.11.2017
07:03:05
от алгоритма зависит. Например IF-IDF bkb байес ищет редко встречающиесяслова, характерные для определённого класса. Если будут слова с хорошей предсказательной силой - и 2-3 будет достаточно.

Sanjhon
22.11.2017
07:08:14
what is the use of distrubted cache

Tony
22.11.2017
07:59:42
как выглядит запрос, который возвращает индекс, где занято только одно поле? array([['MA', 'WD'], ['MB', 'WB'], ['MC', '0'], ['MD', '0'], ['ME', '0']], dtype='<U21')

Google
Tony
22.11.2017
07:59:48
может знает кто?

tonko
22.11.2017
08:17:41
че сделать то надо?

Tony
22.11.2017
08:18:18
вернуть индексы, где на втором месте ничего не стоит

0 то есть

tonko
22.11.2017
08:19:25
filter(lambda x: x[1]=="0", arr) поидее даст сами ячейки, если они уникальные, то дальше [arr.index(row) for row in filtered_arr]

Tony
22.11.2017
08:19:58
средствами питона то есть

я просто хотел чистым нампаем сделать

через where и тому подобным

Henadz
22.11.2017
08:21:24
Nikolay
22.11.2017
08:21:49
векторные операции должны быть

Henadz
22.11.2017
08:24:22
a[ a[:,1] == '0' ]

так лучше?

Nikolay
22.11.2017
08:26:57
Да

Tony
22.11.2017
10:08:07
может кто-то уже реализовывал оценку текста на положительное/отрицательное высказывание?

поделитесь, если да, пожалуйста

Tony
22.11.2017
10:20:32
Nikolay
22.11.2017
10:20:49
да, гуглил
тогда к чему вопрос?

Google
Tony
22.11.2017
10:22:11
классификация с логистической функцией надо

тогда к чему вопрос?
может кто реализовывал

в интернете в большинстве случаев старое

либо на джаве

Admin
ERROR: S client not available

Nikolay
22.11.2017
10:22:40
может кто реализовывал
в гугле ищется, минут за пять-десять

Evgeniy
22.11.2017
10:29:30
как и все остальные его вопросы?‍♂

Nikolay
22.11.2017
10:30:16
как и все остальные его вопросы?‍♂
некоторые люди ожидают, что за них все сделают другие

Andrey
22.11.2017
10:30:54
некоторые люди ожидают, что за них все сделают другие
а это и не плохо, просто надо делать не бесплатно

Nikolay
22.11.2017
10:31:34
а это и не плохо, просто надо делать не бесплатно
тоже верно. Телеграм вроде позволяет платежи принимать? давайте сделаем кнопочку для тех, кто хочет, чтобы им что-то запилили ?

Nikolay
22.11.2017
10:32:40
...
что? ты сразу отнес на свой счет?

Tony
22.11.2017
10:32:51
ну понятно, о ком ты

ответы абсолютно на все вопросы можно найти в гугле, тогда зачем эти чаты в тг?

Руслан
22.11.2017
10:40:48
кто знает, как нужно правильно менять входной embedding слой у уже обученной нейросети (keras)? network.layers[0] = Embedding(w2v.vocabulary_size() + 1, w2v.vector_dim(), input_length=max_length, weights=[w2v.weights()], trainable=False) вот так вроде не совсем верно

Sergey
22.11.2017
10:42:50
ответы абсолютно на все вопросы можно найти в гугле, тогда зачем эти чаты в тг?
Тоже не понимаю зачем Гугл - поиск для домохозяек, слишком много информации По сути такие группы нужны для более точного поиска отправной точки в изучении какого-то вопроса Но по факту человек, придя сюда, отправляется чаще всего по ссылке на Википедию.

tonko
22.11.2017
10:43:31
ну а ищущей стороне это зачем нужно? жду кнопки для монетизации

Руслан
22.11.2017
10:44:28
Почему неверно?
когда глазами смотришь на результаты работы - вообще не соответствует реальности, хотя на cv очень хорошие метрики

Google
Руслан
22.11.2017
10:45:49
менять слой надо из-за того что новые незнакомые слова могут встречаться, а w2v модель от fasttext может предугадывать вектора для незнакомых слов, поэтому каждый раз нужно обновлять входной слой с новыми весами и размером словаря

возможно надо сообщить следующему слою, что предыдущий обновился, но что-то не гуглится

Evgeniy
22.11.2017
10:56:09
ответы абсолютно на все вопросы можно найти в гугле, тогда зачем эти чаты в тг?
ну если ты тратишь 0 времени на попытку решить проблему, то это просто неуважение

?
22.11.2017
10:58:45
ты приходишь задать свой вопрос по sentiment analysis, но делаешь это без уважения

Sergey
22.11.2017
11:00:03
ты приходишь задать свой вопрос по sentiment analysis, но делаешь это без уважения
Тут недавно датасет большой с сарказмом ещё выложили, правда на английском

?
22.11.2017
11:01:00
а вот тоже хотел спросить, есть какой-нить канал на тему статистики/машинленинг, но для ньюбов, типа песочницы, где жжеными тряпками по лицу не надают за вопросы?

Sergey
22.11.2017
11:01:43
Есть песочница открытого курса OpenDataScience

?
22.11.2017
11:02:28
в слаке?



Oleksandr
22.11.2017
11:06:28
можешь меня назвать

?
22.11.2017
11:07:00
спасибо

Nikolay
22.11.2017
11:07:02
или меня)

Igor
22.11.2017
11:08:41
https://www.kaggle.com/ngyptr/python-nltk-sentiment-analysis

Evgeniy
22.11.2017
11:15:23
Минут 40 искал сам
я хз как ты искал если честно

Страница 182 из 327