
Eldar
16.11.2016
19:19:11
вмсысле? там же гил мешает ему
ну можно тогда про asyncio почитать

Aleksandr
16.11.2016
19:19:36
вот поэтому мультипроцессинг модуль якобы лучше стандартного threading
мне надо в параллель пустить несколько процессов

Google

Aleksandr
16.11.2016
19:20:20
которые будут раздербанивать файлы по заданным правилам
а то у меня 150к файлов и это писец в один поток решать

Eldar
16.11.2016
19:21:06

Роман
16.11.2016
19:21:21
там процессы прям настоящие

Aleksandr
16.11.2016
19:21:23
я тебе могу только покидать статьи с хабра

Denis
16.11.2016
19:21:25

Eldar
16.11.2016
19:21:39
знаю
ну если двое говорят, то я вынужден поверить)

Роман
16.11.2016
19:23:08

Eldar
16.11.2016
19:23:40

Роман
16.11.2016
19:24:27
в мультипроцессинге

Eldar
16.11.2016
19:24:53
не путай меня)
у меня вопрос по конкретной задаче

Google

Aleksandr
16.11.2016
19:25:07
им пофиг
тупо срать результатами в один файл

Eldar
16.11.2016
19:25:24
а нафига тогда ты с процессами мучаешься?

Aleksandr
16.11.2016
19:25:30
а как?

Eldar
16.11.2016
19:25:47
а порядок важен?

Aleksandr
16.11.2016
19:25:55
нет

Eldar
16.11.2016
19:26:16
ну дык напиши однопоточный, чтобы каждый в свой файл срал
а потом слей в один
и заупсти скока тебе надо процессов

Aleksandr
16.11.2016
19:26:38
сильно ли это дело ускорит?
ну я так и хочу
но я хочу в параллель пустить эти процессы
по 100 файлов за раз

Eldar
16.11.2016
19:27:06

Роман
16.11.2016
19:27:08
твою ж мать

Eldar
16.11.2016
19:27:44
тут либа мультипроцессинга нафиг невсралась, если человеку с ней тяжело работать

Роман
16.11.2016
19:28:36
4 строчки кода

Google

Роман
16.11.2016
19:28:37
и все
мы дольше обсуждаем

Aleksandr
16.11.2016
19:29:06
import os
import subprocess
from multiprocessing.dummy import Pool as ThreadPool
def parse(fn):
subprocess.call("php byone.php " + fn, shell=True)
subprocess.call("php unpack.php")
for file in files:
if (os.path.isfile(os.path.join(dir, file))):
if file not in expl:
clicks.append(file)
pool = ThreadPool(100)
results = map(parse, clicks)

Eldar
16.11.2016
19:29:07
да полюбасу больше будет

Aleksandr
16.11.2016
19:29:08
такое?

Eldar
16.11.2016
19:29:21
херня все
не вижу разделение обрабатываемых файлов по потокам

Aleksandr
16.11.2016
19:30:17
там php скрипт срет результаты в файл

Eldar
16.11.2016
19:30:38
acyncio?
мне название функции надо, вот если asyncio юзал то это было бы жестоко)

Admin
ERROR: S client not available

Роман
16.11.2016
19:31:34

Eldar
16.11.2016
19:31:55
всего*

Aleksandr
16.11.2016
19:34:03
не удаляет
там php скрипту передается параметром имя файла, который надо обработать
угу… уже дрочу документацию
спасибо за код )

Eldar
16.11.2016
19:34:45

Google

Aleksandr
16.11.2016
19:35:02
с чего он будет читать одно и то же?
вроде оно должно как раз перебрать

Eldar
16.11.2016
19:35:55

Aleksandr
16.11.2016
19:36:10
ща потестю

Eldar
16.11.2016
19:36:32
ток кто-то тут писал, что пачками файлы хочет читать
ну не знаю, если скрипт для каждого файла запускается, то проще проитерироваться с шагом равным кол-ву потоков
хотя это можно и в каждом процессе делать)

Paul
16.11.2016
19:39:18
не переживай, там почти никто почти ничего не понимает

Eldar
16.11.2016
19:39:22
мне в инсте про это рассказывают)

Paul
16.11.2016
19:39:24
ибо сложно запредельно

Eldar
16.11.2016
19:39:42
всякие распределенные системы, параллельное программирование
?

Paul
16.11.2016
19:40:23
хорошо что node.js не начал