@ru_python

Страница 7786 из 9768
Essentuki
19.01.2019
18:21:00
Slam! 538
19.01.2019
18:21:01
Так как лучше?

Terminator
19.01.2019
18:21:02
@Rinat_05 будет жить. Поприветствуем!

Google
Slam! 538
19.01.2019
18:21:08
Как сейчас или своим методом?

Toha
19.01.2019
18:21:20
Ладно, допустим не нужен ответ
Джоин нужен для того чтобы главный поток дожидался завершения работы дочернего треда

Если хочется великов, то я бы сделал какойнить QueueManager, который бы манипулировал очередями

Toha
19.01.2019
18:22:28
А дочерние потоки к нему обращались за очередями

Slam! 538
19.01.2019
18:22:40
Очередь одна

Toha
19.01.2019
18:22:50
Типа дочерний поток хочет положить что то в очередь

Николай
19.01.2019
18:22:58
Так. А что не работает в твоём случае?

Slam! 538
19.01.2019
18:23:05
Все работает

Toha
19.01.2019
18:23:10
QueueManager.get('queueName')

Slam! 538
19.01.2019
18:23:11
Вопрос архитектуры был

Как лучше сделать

Toha
19.01.2019
18:24:12
Как лучше сделать
Делать так чтлбы методы получения сообщений везде были однообразные

Google
Slam! 538
19.01.2019
18:24:20
Просто с очередью можно работать только тогда, когда запущен хук, но если делать через отдельный метод get для очереди, то необходимо проверять, а не запущен ли хук. И вопрос, что возвращать методу, если хук не запущен

Toha
19.01.2019
18:24:56
яннп

Николай
19.01.2019
18:24:56
Как лучше сделать
Queuemanager и хватать ответ определённого треда, чтобы понимал, какой тред вернул ответ. Если ты конечно на разные порты стучишься

Toha
19.01.2019
18:25:36
Ты спрашивал про архитектуру

Тебе ответили

Нам тоже пох на твои треды)

Николай
19.01.2019
18:26:09
Существенных недостатков не вижу в архитектуре твоего скрина выше

Slam! 538
19.01.2019
18:26:18
Ок

Николай
19.01.2019
18:27:14
Вопрос - хватит ли тебе того, что ты написал. Если расширять - мб как то переделывать, но тут надо погружаться глубоко в твою задумку

Toha
19.01.2019
18:27:22
Это херня)

first
19.01.2019
18:27:46
привет всем, в селениуме в эелемент шлю send_keys('hello\nall')

Toha
19.01.2019
18:28:04
потому что судя по всему ты используешь threading.Thread

first
19.01.2019
18:28:11
и получается что он сначала вводит hello, потом будто жемтся enter и вписывается go

Toha
19.01.2019
18:28:22
А это не честная многопоточность из за GIL

Toha
19.01.2019
18:28:54
В этом случае у тебя потоки будут по очереди обрабатываться

Google
Николай
19.01.2019
18:28:59
Тут впринципе можно через него, но тогда не чистые сокеты, а asincio функционал

Toha
19.01.2019
18:29:24
multiprocessing.Thread здесь не подойдет потому что сокеты не сериализуются

Николай
19.01.2019
18:29:40
А это не честная многопоточность из за GIL
Там же сетевые задержки только, gil не должен мешать

Toha
19.01.2019
18:29:40
Пожтому имхо на питоне только асинк для таких вещей

Николай
19.01.2019
18:29:49
Slam! 538
19.01.2019
18:29:59
Я в асинк не полезу, пока свой примитивный не напишу

Toha
19.01.2019
18:30:50
Там же сетевые задержки только, gil не должен мешать
В threading.Thread каждый поток выполняется последовательно каждые 10 тиков

Николай
19.01.2019
18:31:11
Toha
19.01.2019
18:31:19
А плодить процессы не всегда хорошо
Когда нужна честная многопоточность, почему бы и да?

Николай
19.01.2019
18:31:49
Когда нужна честная многопоточность, почему бы и да?
Если много - не оч по производительности

Toha
19.01.2019
18:32:04
Много - это сколько?

Николай
19.01.2019
18:32:28
Больше ядер процессора? Учитывая while true

first
19.01.2019
18:32:47
какие альтернативы \n есть?

Николай
19.01.2019
18:33:06
В тексте питона - не особо, если не вникать в юникод

Toha
19.01.2019
18:33:40
Больше ядер процессора? Учитывая while true
Если следовать этой логике то в любом яп многопоточность зло)

Но я с этим не согласен

Николай
19.01.2019
18:33:53
Google
Николай
19.01.2019
18:34:13
Лучше параллелить большие процессы имхо

Toha
19.01.2019
18:34:24
Это зависит от того какого типа задачи выполняются в потоках

Николай
19.01.2019
18:34:27
А мелкие будут очень забивать систему, не?

first
19.01.2019
18:34:39
В тексте питона - не особо, если не вникать в юникод
у мея проблема, в том что я в селениуме шлю send_keys('hi\nall') и на странице \n распознается как будто я нажал enter

Admin
ERROR: S client not available

Slam! 538
19.01.2019
18:34:40
А мелкие будут очень забивать систему, не?
Будет больше времени на сериализацию тратиться, чем на полезную работу

Николай
19.01.2019
18:34:44
Это зависит от того какого типа задачи выполняются в потоках
Не, ну если там слипов понаставить, то норм

first
19.01.2019
18:35:07
так вот, чем заменить \n?

Toha
19.01.2019
18:35:16
Если там производятся вычисления числа пи, то очевидно не стоит создавать количество потоков больше количества ядер

Toha
19.01.2019
18:35:59
А если в процессе работы происходят обращения к сторонним сервисам, то можно и побольше потоков сделать)

Slam! 538
19.01.2019
18:36:07
first
19.01.2019
18:36:08
Куда ты шлёшь sendall в какое поле
В поле ввода сообщения на странице

Toha
19.01.2019
18:36:25
Толтко примитивы

Николай
19.01.2019
18:36:33
В поле ввода сообщения на странице
Если поле не text то не введёшь никак больше 1 строки

first
19.01.2019
18:36:39
и выходит так, что отсылается hi, потом вписывается all

Toha
19.01.2019
18:36:45
Строки, числа, бул

Slam! 538
19.01.2019
18:36:48
Не нужно слать в очередь сложные объекты
Да даже если числа, то все равно

Google
first
19.01.2019
18:36:55
Slam! 538
19.01.2019
18:37:31
Но все зависит от того, какой сложности будет задача, открытая в другом процессе

Toha
19.01.2019
18:38:39
Я люблю многопоток, тоьько не умею всякие вычисления делать многопоточными) В основном делал всякие воркеры, парсеры, слушатели сокетов)

Ком портов т.е.)

Николай
19.01.2019
18:38:58
и выходит так, что отсылается hi, потом вписывается all
https://artoftesting.com/automationTesting/press-enter-tab-space-arrow-function-keys-in-selenium-webdriver-with-java.html

Keys.SHIFT Keys.ENTER

Tishka17
19.01.2019
18:39:23
Для многопоточных вычислений возьмите хотя бы openmp

Terminator
19.01.2019
18:39:58
evgen sevg будет жить. Поприветствуем!

Toha
19.01.2019
18:40:04
Это нужно дофига умным быть))

3 года назад вот такое говно писал многопоточное https://github.com/nolka/jobmanager

То пример)

Уворкера есть 2 очереди. Из одной берет задачи, в другую кладет результаты)

Dmitry
19.01.2019
19:13:07
Всем привет! Кто-нибудь использует Python 3 (важно именно 3, а не 2) для сбора фраз из Яндекс.Вордстат через API? Можете поделиться скриптом или скинуть полезный материал на тему? Спасибо!

Terminator
19.01.2019
19:28:38
Gennady будет жить. Поприветствуем!

Страница 7786 из 9768