
Николай
19.01.2019
18:20:55

Essentuki
19.01.2019
18:21:00

Slam! 538
19.01.2019
18:21:01
Так как лучше?

Terminator
19.01.2019
18:21:02
@Rinat_05 будет жить. Поприветствуем!

Google

Slam! 538
19.01.2019
18:21:08
Как сейчас или своим методом?

Toha
19.01.2019
18:21:20
Если хочется великов, то я бы сделал какойнить QueueManager, который бы манипулировал очередями

Николай
19.01.2019
18:22:16

Toha
19.01.2019
18:22:28
А дочерние потоки к нему обращались за очередями

Slam! 538
19.01.2019
18:22:40
Очередь одна

Toha
19.01.2019
18:22:50
Типа дочерний поток хочет положить что то в очередь

Николай
19.01.2019
18:22:58
Так. А что не работает в твоём случае?

Slam! 538
19.01.2019
18:23:05
Все работает

Toha
19.01.2019
18:23:10
QueueManager.get('queueName')

Slam! 538
19.01.2019
18:23:11
Вопрос архитектуры был
Как лучше сделать

Toha
19.01.2019
18:24:12

Google

Slam! 538
19.01.2019
18:24:20
Просто с очередью можно работать только тогда, когда запущен хук, но если делать через отдельный метод get для очереди, то необходимо проверять, а не запущен ли хук. И вопрос, что возвращать методу, если хук не запущен

Toha
19.01.2019
18:24:56
яннп

Николай
19.01.2019
18:24:56
Как лучше сделать
Queuemanager и хватать ответ определённого треда, чтобы понимал, какой тред вернул ответ. Если ты конечно на разные порты стучишься

Slam! 538
19.01.2019
18:25:05
None, текст какой нибудь, либо False

Toha
19.01.2019
18:25:36
Ты спрашивал про архитектуру
Тебе ответили
Нам тоже пох на твои треды)

Николай
19.01.2019
18:26:09
Существенных недостатков не вижу в архитектуре твоего скрина выше

Slam! 538
19.01.2019
18:26:18
Ок

Николай
19.01.2019
18:27:14
Вопрос - хватит ли тебе того, что ты написал. Если расширять - мб как то переделывать, но тут надо погружаться глубоко в твою задумку

Toha
19.01.2019
18:27:22
Это херня)

Николай
19.01.2019
18:27:32

first
19.01.2019
18:27:46
привет всем, в селениуме в эелемент шлю send_keys('hello\nall')

Toha
19.01.2019
18:28:04
потому что судя по всему ты используешь threading.Thread

first
19.01.2019
18:28:11
и получается что он сначала вводит hello, потом будто жемтся enter и вписывается go

Slam! 538
19.01.2019
18:28:18

Toha
19.01.2019
18:28:22
А это не честная многопоточность из за GIL

Николай
19.01.2019
18:28:22

Toha
19.01.2019
18:28:54
В этом случае у тебя потоки будут по очереди обрабатываться

Google

Николай
19.01.2019
18:28:59
Тут впринципе можно через него, но тогда не чистые сокеты, а asincio функционал

Slam! 538
19.01.2019
18:29:14

Toha
19.01.2019
18:29:24
multiprocessing.Thread здесь не подойдет потому что сокеты не сериализуются

Николай
19.01.2019
18:29:40

Toha
19.01.2019
18:29:40
Пожтому имхо на питоне только асинк для таких вещей

Николай
19.01.2019
18:29:49

Slam! 538
19.01.2019
18:29:59
Я в асинк не полезу, пока свой примитивный не напишу

Toha
19.01.2019
18:30:50

Николай
19.01.2019
18:31:11

Toha
19.01.2019
18:31:19

Николай
19.01.2019
18:31:49

Toha
19.01.2019
18:32:04
Много - это сколько?

Николай
19.01.2019
18:32:28
Больше ядер процессора? Учитывая while true

first
19.01.2019
18:32:47
какие альтернативы \n есть?

Николай
19.01.2019
18:33:06
В тексте питона - не особо, если не вникать в юникод

Toha
19.01.2019
18:33:40
Но я с этим не согласен

Николай
19.01.2019
18:33:53

Google

Николай
19.01.2019
18:34:13
Лучше параллелить большие процессы имхо

Toha
19.01.2019
18:34:24
Это зависит от того какого типа задачи выполняются в потоках

Николай
19.01.2019
18:34:27
А мелкие будут очень забивать систему, не?

first
19.01.2019
18:34:39

Admin
ERROR: S client not available

Slam! 538
19.01.2019
18:34:40

Николай
19.01.2019
18:34:44

first
19.01.2019
18:35:07
так вот, чем заменить \n?

Toha
19.01.2019
18:35:16
Если там производятся вычисления числа пи, то очевидно не стоит создавать количество потоков больше количества ядер

Николай
19.01.2019
18:35:53

Toha
19.01.2019
18:35:59
А если в процессе работы происходят обращения к сторонним сервисам, то можно и побольше потоков сделать)

Slam! 538
19.01.2019
18:36:07

first
19.01.2019
18:36:08

Николай
19.01.2019
18:36:09

Toha
19.01.2019
18:36:25
Толтко примитивы

Николай
19.01.2019
18:36:33

first
19.01.2019
18:36:39
и выходит так, что отсылается hi, потом вписывается all

Toha
19.01.2019
18:36:45
Строки, числа, бул

Slam! 538
19.01.2019
18:36:48

Google

first
19.01.2019
18:36:55

Slam! 538
19.01.2019
18:37:31
Но все зависит от того, какой сложности будет задача, открытая в другом процессе

Toha
19.01.2019
18:38:39
Я люблю многопоток, тоьько не умею всякие вычисления делать многопоточными) В основном делал всякие воркеры, парсеры, слушатели сокетов)
Ком портов т.е.)

Николай
19.01.2019
18:38:58
Keys.SHIFT
Keys.ENTER

Tishka17
19.01.2019
18:39:23
Для многопоточных вычислений возьмите хотя бы openmp

Terminator
19.01.2019
18:39:58
evgen sevg будет жить. Поприветствуем!

Toha
19.01.2019
18:40:04
Это нужно дофига умным быть))
3 года назад вот такое говно писал многопоточное https://github.com/nolka/jobmanager
То пример)
Уворкера есть 2 очереди. Из одной берет задачи, в другую кладет результаты)

Dmitry
19.01.2019
19:13:07
Всем привет! Кто-нибудь использует Python 3 (важно именно 3, а не 2) для сбора фраз из Яндекс.Вордстат через API? Можете поделиться скриптом или скинуть полезный материал на тему? Спасибо!

Terminator
19.01.2019
19:28:38
Gennady будет жить. Поприветствуем!