@ru_python

Страница 1783 из 9768
Eldar
16.11.2016
19:19:11
вмсысле? там же гил мешает ему

ну можно тогда про asyncio почитать

Aleksandr
16.11.2016
19:19:36
вот поэтому мультипроцессинг модуль якобы лучше стандартного threading

мне надо в параллель пустить несколько процессов

Google
Aleksandr
16.11.2016
19:20:20
которые будут раздербанивать файлы по заданным правилам

а то у меня 150к файлов и это писец в один поток решать

Eldar
16.11.2016
19:21:06
Роман
16.11.2016
19:21:21
там процессы прям настоящие

Aleksandr
16.11.2016
19:21:23
я тебе могу только покидать статьи с хабра

Eldar
16.11.2016
19:21:39
знаю

ну если двое говорят, то я вынужден поверить)

Eldar
16.11.2016
19:23:40
Роман
16.11.2016
19:24:27
в мультипроцессинге

Eldar
16.11.2016
19:24:53
не путай меня)

у меня вопрос по конкретной задаче

Google
Aleksandr
16.11.2016
19:25:07
им пофиг

тупо срать результатами в один файл

Eldar
16.11.2016
19:25:24
а нафига тогда ты с процессами мучаешься?

Aleksandr
16.11.2016
19:25:30
а как?

Eldar
16.11.2016
19:25:47
а порядок важен?

Aleksandr
16.11.2016
19:25:55
нет

Eldar
16.11.2016
19:26:16
ну дык напиши однопоточный, чтобы каждый в свой файл срал

а потом слей в один

и заупсти скока тебе надо процессов

Aleksandr
16.11.2016
19:26:38
сильно ли это дело ускорит?

ну я так и хочу

но я хочу в параллель пустить эти процессы

по 100 файлов за раз

Eldar
16.11.2016
19:27:06
сильно ли это дело ускорит?
ну у тебя все в диски упрется

Роман
16.11.2016
19:27:08
твою ж мать

Eldar
16.11.2016
19:27:44
твою ж мать
че не так-то?!

тут либа мультипроцессинга нафиг невсралась, если человеку с ней тяжело работать

Роман
16.11.2016
19:28:36
4 строчки кода

Google
Роман
16.11.2016
19:28:37
и все

мы дольше обсуждаем

Aleksandr
16.11.2016
19:29:06
import os import subprocess from multiprocessing.dummy import Pool as ThreadPool def parse(fn): subprocess.call("php byone.php " + fn, shell=True) subprocess.call("php unpack.php") for file in files: if (os.path.isfile(os.path.join(dir, file))): if file not in expl: clicks.append(file) pool = ThreadPool(100) results = map(parse, clicks)

Eldar
16.11.2016
19:29:07
да полюбасу больше будет

Aleksandr
16.11.2016
19:29:08
такое?

Eldar
16.11.2016
19:29:21
херня все

не вижу разделение обрабатываемых файлов по потокам

Aleksandr
16.11.2016
19:30:17
там php скрипт срет результаты в файл

Eldar
16.11.2016
19:30:38
acyncio?

мне название функции надо, вот если asyncio юзал то это было бы жестоко)

Admin
ERROR: S client not available

Роман
16.11.2016
19:31:34
acyncio?
вот это реально сложная штука

Eldar
16.11.2016
19:31:55
там php скрипт срет результаты в файл
а ну если уже все написано, то базара нет)

вот это реально сложная штука
да ладно, там все довольно просто, я за полдня все понял, но спустя день правда забыл апи все этого говна

всего*

там php скрипт срет результаты в файл
твой скрипт файлы удаляет? как шедулятся пулы файлов?

Aleksandr
16.11.2016
19:34:03
не удаляет там php скрипту передается параметром имя файла, который надо обработать

угу… уже дрочу документацию

спасибо за код )

Eldar
16.11.2016
19:34:45
не удаляет там php скрипту передается параметром имя файла, который надо обработать
а где гарантия что он не будет читать по 5 раз одно и тоже?

Google
Aleksandr
16.11.2016
19:35:02
с чего он будет читать одно и то же?

вроде оно должно как раз перебрать

Eldar
16.11.2016
19:35:55
Aleksandr
16.11.2016
19:36:10
ща потестю

Eldar
16.11.2016
19:36:32
ток кто-то тут писал, что пачками файлы хочет читать

ну не знаю, если скрипт для каждого файла запускается, то проще проитерироваться с шагом равным кол-ву потоков

хотя это можно и в каждом процессе делать)

Paul
16.11.2016
19:39:18
не переживай, там почти никто почти ничего не понимает

Eldar
16.11.2016
19:39:22
мне в инсте про это рассказывают)

Paul
16.11.2016
19:39:24
ибо сложно запредельно

Eldar
16.11.2016
19:39:42
всякие распределенные системы, параллельное программирование

?

Paul
16.11.2016
19:40:23
хорошо что node.js не начал

Страница 1783 из 9768