@ru_python

Страница 6611 из 9768
Дмитрий
28.09.2018
07:45:06
там все апдейты, оказывается

Винни
28.09.2018
07:45:07
Ну как что - очевидно код на питоне с кучей зависимостей из PyPi ?
да даже мой проект с 12 зависимостями и более 1к после сборки (!!!) в .ехе весит 7.2 мб

Cykooz
28.09.2018
07:45:48
Ну и кстати, справедливости ради, надо хотя бы раз в полгода делать "чистую установку" (при установке Nvidia-дров есть такая галочка в инсталяторе). Она как раз удаляет все старые версии дров.

El Mariachi
28.09.2018
07:47:09
там все апдейты, оказывается
ну и не забывайте, что там драйвера наверное на не одну уже сотню "карточек"

Google
El Mariachi
28.09.2018
07:47:59
Ну и фронтенд там мишурой обвешали уже по небалуйся

Василий
28.09.2018
07:48:34
ну и не забывайте, что там драйвера наверное на не одну уже сотню "карточек"
они старые перемещают в легаси версии драйверов. так что поддерживают только последние штук 20

Sam
28.09.2018
08:07:39
хорошо за 200. скажем так
200к рублей? Регион МО

Vitaliy Nameless
28.09.2018
08:19:12
Андрей
28.09.2018
08:21:10
Сюда тоже скину

я с вопросом про кастомное шифрование в Питоне2. На уровне OpenSSL мы сделали поддержку гостовых шифров, но, судя по всему, Питон не хочет их использовать(не знает про них). В конфигурации перед сборкой python3.7 есть такой параметр: "-with-ssl-default-suites=[python | openssl | STRING]" Override default cipher suites string, python: use Python's preferred selection (default), openssl: leave OpenSSL's defaults untouched, STRING: use a custom string, PROTOCOL_SSLv2 ignores the setting У python2.7 такого параметра нет, но подозрение на то, что используются только "предпочитаемые питоном" шифры - есть. Сталкивались с этим?

Татьяна
28.09.2018
08:22:48
Есть цикл, который перебирает последовательно элементы множества и делает с ними 2 действия: копирование и разорхивацию. Не получается распараллелить, чтоб параллельно копировалось 2-3 архива, по окончанию копирования архива чтоб начиналась разорхивация, и тем временем качался бы еще архив. Вот как последовательно реализовала: https://pastebin.com/FKwWaEb8 Вот попытка реализовать параллельно это же, но тут архивы параллельно не копируются: https://pastebin.com/Kk25xfH7

Sam
28.09.2018
08:30:16
Орхив благословленный.

Татьяна
28.09.2018
08:34:58
Многопоточность тогда уж скорее

Василий
28.09.2018
08:36:14
Многопоточность тогда уж скорее
используй субпроцессы

Google
Татьяна
28.09.2018
08:37:08
используй субпроцессы
а если конкретно к моей задаче?

Василий
28.09.2018
08:38:41
а если конкретно к моей задаче?
конкретно к твоей задаче. распаковка архива забивает весь проц. поэтому скачивание ожидает. если использовать субпроцессы то они будут выполнятся на разных ядрах независимо. правда останется вопрос с дисковой подсистемой.

Татьяна
28.09.2018
08:38:57
Ну... вот мне надо параллельно запустить несколько процессов(ну либо субпроцессов, как угодно), а аргументы у меня во множестве, по которому я иду

Василий
28.09.2018
08:39:10
если использовать библиотеку multiprocessing вместо threading то переключатся между процессами и потоками проще будет

Татьяна
28.09.2018
08:42:54
конкретно к твоей задаче. распаковка архива забивает весь проц. поэтому скачивание ожидает. если использовать субпроцессы то они будут выполнятся на разных ядрах независимо. правда останется вопрос с дисковой подсистемой.
с чего взял, что распаковка забивает весь проц и скачивание ожидается? когда я запускаю скрипт с параллельным выполнением он отрабатывает быстрее, чем когда я запускаю скрипт с последовательным выполнением тех же операций. Я скинула два варианта работающего цикла, просто в последнем мне не хватает того, чтоб файлы качались параллельно, а так-то там все норм

Василий
28.09.2018
08:44:16
Василий
28.09.2018
08:46:19
Запись на диск не жрёт проц
то есть из сетевой карты все сразу пишется на диск?

Nikolay
28.09.2018
08:46:44
И потоки на одном ядре не из-за Gil выполняются, а из-за CPU affinity

то есть из сетевой карты все сразу пишется на диск?
Нет, но в I/o операциях проц задействован по-минимуму

Василий
28.09.2018
08:48:19
И потоки на одном ядре не из-за Gil выполняются, а из-за CPU affinity
то есть если код собрать на С++ с использованием mp то внезапно CPU affinity пропадает?

Nikolay
28.09.2018
08:48:56
Василий
28.09.2018
08:48:58
Нет, но в I/o операциях проц задействован по-минимуму
когда один поток забивает ядро на 100%. как думаешь начнет тупить тот поток который забивает ядро на 10%

Василий
28.09.2018
08:49:36
Нет, тот же numpy его явно отрубает, насколько я помню
потому что numpy написан поверх библиотек на фортране и си. и там кусками многопоточность есть

Google
Татьяна
28.09.2018
08:50:57
У меня вопрос)))

Есть цикл, который перебирает последовательно элементы множества и делает с ними 2 действия: копирование и разорхивацию. Не получается распараллелить, чтоб параллельно копировалось 2-3 архива, по окончанию копирования архива чтоб начиналась разорхивация, и тем временем качался бы еще архив. Вот как последовательно реализовала: https://pastebin.com/FKwWaEb8 Вот попытка реализовать параллельно это же, но тут архивы параллельно не копируются: https://pastebin.com/Kk25xfH7

так в чем вопрос-то?

)))

Я пока не поняла, что мне делать, как реализовать то, что хочу

Татьяна
28.09.2018
08:51:54
Nikolay
28.09.2018
08:52:05
Надо так
кто сказал?

надо задачу решить или надо микроскопом гвозди забивать?

Nikolay
28.09.2018
08:53:07
ну и да, если без питона никак - попробуй multiprocessing.Pool

Татьяна
28.09.2018
08:55:28
ну и да, если без питона никак - попробуй multiprocessing.Pool
как это применить к конкретной задаче-то? Я прост идею не ловлю, у меня есть множество, по которому я в цикле прохожу, как мне сделать, чтоб параллельно запустить 3 процесса(ну... раз мультипроцессинг юзать) с аргументами из цикла?

ну и да, если без питона никак - попробуй multiprocessing.Pool
Я там в первом сообщении свой цикл кидала

Nikolay
28.09.2018
08:56:35
тогда тебе вместо цикла нужна параллельная реализация map(), которую я тебе и предложил :)

сейчас поищу пример

ну хотя в доке уже он есть https://docs.python.org/3/library/multiprocessing.html

Татьяна
28.09.2018
08:59:16
ну хотя в доке уже он есть https://docs.python.org/3/library/multiprocessing.html
Эх, видела я это) Я не понимаю, как начать)

Google
Nikolay
28.09.2018
08:59:57
Татьяна
28.09.2018
09:00:05
а как?

Nikolay
28.09.2018
09:00:11
pool.map(your_function, archives)

Admin
ERROR: S client not available

Nikolay
28.09.2018
09:00:17
как в примере и написано

Татьяна
28.09.2018
09:00:45
И разве так не запустятся сразу ВСЕ архивы на скачивание?

Nikolay
28.09.2018
09:00:52
где your_function - это функция, которую ты применяешь к архиву

И разве так не запустятся сразу ВСЕ архивы на скачивание?
ты при создании пула указываешь, сколько процессов тебе надо

можешь написать 3 - тогда будет не больше трех

Татьяна
28.09.2018
09:01:18
ааааааа

стопэ, я поняла

ща

5 сек

где your_function - это функция, которую ты применяешь к архиву
Оно кароч медленнее работает, чем когда я последовательно запускаю

Nikolay
28.09.2018
09:11:12
на xargs было бы быстрее в разы

Татьяна
28.09.2018
09:11:50
ну... когда использовала потоки, а не процессы, у меня выигрыш был в 4 раза

Nikolay
28.09.2018
09:11:57
оно быстрее работает на большем количестве архивов/процессов

Татьяна
28.09.2018
09:12:00
но оно не копировало архивы

Google
Татьяна
28.09.2018
09:12:09
ага

а я ведь могу проверить

))

ща

через час другой приду, есть у меня тут архивов на пару терабайт

оно быстрее работает на большем количестве архивов/процессов
Хм, слушай, вот если пул = 4, то когда 1 процесс из пула освобождается, он приступает к новой работе или ждет, пока все 4 процесса закончат, а потом они все четвером снова приступают к работе?

Татьяна
28.09.2018
09:16:02
ооо

даа

то, что надо

ща затещу

Безопасность?
28.09.2018
09:17:31
Как удалить python 3.7, и установить python 3.6, то есть какие части файлов мне удалять, не хочу расставаться со скачаннами пакетами

Lulz
28.09.2018
09:19:53
разве нельзя поставить 3.6 ипотом переключаться между ними?

как в случае 2 и 3 версии python и python3

Страница 6611 из 9768