@bigdata_ru

Страница 183 из 327
Evgeniy
22.11.2017
11:15:53
это с первой страницы по запросу sentence sentiment python

Boris
22.11.2017
13:48:04
подскажите фронтендеру плиз какие потолки по ЗП нынче в Мск для ML спецов?

ну или где канал с вакансиями по вашей тематике?

?
22.11.2017
13:54:06
https://www.kaggle.com/jobs

Google
Tony
22.11.2017
13:54:24
как отобразить таблицы pandas на одном уровне? https://asyoulook.com/computers%20&%20internet/jupyter-notebook-display-two-pandas-tables-side-by-side/737605 это не помогло

Mark
22.11.2017
16:27:57
привет как сделать невозможним ввод цифр в етом Regexe QRegExp regexp("^[A-Za-z]+((\s)?((\'|\-|\.)?([A-Za-z])+))*$");

Constantine
22.11.2017
17:33:16
Я не вижу возможности ввода цифр

Ramil
22.11.2017
19:00:34
Мне не хватало этого стикера

Constantine
23.11.2017
05:33:08
Попробуй [^0-9]
Там и так невозможно ввести цифры, только буквы и несколько знаков

Tony
23.11.2017
07:56:31
каким объектом является весовой коэффициент?

Boris
23.11.2017
08:23:20
слишком тупые вопросы для чата со столь умным названием

bebebe
23.11.2017
08:23:36
а вот и элита подъехала

Constantine
23.11.2017
09:03:01
или чо там в петонах

Nikolay
23.11.2017
09:06:52
type() спасет отца русской демократии

Tony
23.11.2017
09:54:24
каким объектом является весовой коэффициент?
а может ли является каким-то еще кроме числа

Google
Tony
23.11.2017
09:57:20
спасибо

Evgeniy
23.11.2017
09:58:37
а может ли является каким-то еще кроме числа
может быть распределением в байесовой сети

James Tiberius Kirk ?
23.11.2017
10:50:00
почоны, поясните, я совсем что-то туплю, в персептроне однослойном по какому принципу распределяются связи между S и A элементами?

James Tiberius Kirk ?
23.11.2017
11:58:53
/dev
23.11.2017
12:00:06
где почитать об этом можно?
в курсе метоптов, в литературе по машинке без привязки к нейронкам — везде принцип тот же

Tony
23.11.2017
13:04:48


кидает ошибку ValueError: Error when checking input: expected embedding_1_input to have shape (None, 100) but got array with shape (1, 1578612)

maxlen = 100

каждая последовательность из не более, чем 100 слов

data = pd.read_csv('dataset.csv', error_bad_lines=False) X_train = np.array([data['SentimentText']]) y_train = np.array([data['Sentiment']])

model.compile(loss='binary_crossentropy', optimizer='adam', class_mode="binary", metrics=['accuracy'] )

model.fit( X_train, y_train, batch_size=batch_size, epochs=1, )

в гугле советуют reshape сделать, но это не помогает

Andrey
23.11.2017
13:08:49
Как ты собрался подавать текст в нейронку

Надо сначала токенайзером пройтись

Сделать pad sequence

И только потом отдавать в сеть

Tony
23.11.2017
13:09:16
точно

спасибо!

Google
Tony
23.11.2017
13:30:15
Надо сначала токенайзером пройтись
X_train = np.array(list(map(tknzr.tokenize, data['SentimentText'])))

все равно та же ошибка

Andrey
23.11.2017
13:32:02
tokenizer = Tokenizer(filters='') tokenizer.fit_on_texts(texts=data['SentimentText']) sequences = tokenizer.texts_to_sequences(data['SentimentText']) word_dict = tokenizer.word_index print('Length of dict = {}'.format(len(word_dict))) data = pad_sequences(sequences, maxlen=self.MAX_SEQ_LENGTH)

как то так

а вот data разбиваешь на трейн/тест/вал выборки и обучаешь

Tony
23.11.2017
13:32:52
понял!

я использую from nltk.tokenize import TweetTokenizer

Andrey
23.11.2017
13:33:35
не, этот токенайзер только разбивает предложение на токены, а нужно сделать словарь слов

Tony
23.11.2017
13:34:15
https://docs.python.org/3/library/tokenize.html

этот?

Andrey
23.11.2017
13:34:43
вот этот https://keras.io/preprocessing/text/

Tony
23.11.2017
13:35:09
понял, спасибо

Kek
23.11.2017
13:36:11
Шалом ребята. Что посоветуете полному нубу? Хочу для души поиграть с мущшин лернингом, распознание движения перед вебкой или что еще несложно

Andrey
23.11.2017
13:36:14
не правильно написал, сначала нужно разбить на трейн/тест и только потом токеназейером по трейну пройти

чтоб он не обучился на тестовой выборке

James Tiberius Kirk ?
23.11.2017
13:40:54
Наверняка здесь гуляет гайд для вкатывающихся , поделитесь

Igor
23.11.2017
13:42:00
обновился список, добавлено: Биофармкластер «Северный» Машинное обучение 11 лекций на тему ML https://ru.stackoverflow.com/a/683632/1084

Kek
23.11.2017
13:44:22
Спасибо

Google
Andrey
23.11.2017
13:44:54
а покажи весь код

Admin
ERROR: S client not available

Tony
23.11.2017
13:46:09
а покажи весь код
https://pastebin.com/fK8Nht7p

Andrey
23.11.2017
13:48:59
https://pastebin.com/fK8Nht7p
model.compile(loss='binary_crossentropy', optimizer='adam', class_mode="binary", metrics=['accuracy'] ). что здесь делает class_mode ?)

Tony
23.11.2017
13:49:14
а блядь

точно

извини

в старой версии было просто

прямово время обучения выкинул системную ошибку

первый уровень сети залажал

увеличил объем фичей

сейчас посмотрим

Andrey
23.11.2017
13:55:02
объем фичей - это размер словаря, поставь len(word_dict)

Tony
23.11.2017
13:55:42
объем фичей - это размер словаря, поставь len(word_dict)
то есть сначала должна быть подготовка данных, затем уже компиляция модели?

Andrey
23.11.2017
13:55:56
в данном случае да

Tony
23.11.2017
14:06:46
А зачем словарь то собственно?

У меня сейчас данные типа первый элемент текстов сопоставляется первому элементу из оценок текста

Tony
23.11.2017
14:12:44
вот тут не понял, что это значит?
Сфоткаю экран, ибо сеть напрягла комп дико

Google
Tony
23.11.2017
14:13:08


Вот там где 1 и 0 — это оценка

А предложение само справа

Andrey
23.11.2017
14:15:06
так, и что?

Tony
23.11.2017
14:15:37
y_train — это оценка

Х_train — предложение

Верно?

Andrey
23.11.2017
14:16:47
короче, я тебе советую сначала прочитать вот эту статью https://vgpena.github.io/classifying-tweets-with-keras-and-tensorflow/

Страница 183 из 327