
Roman
14.09.2016
19:04:06
А дальше vmprof
Смотришь где у тебя jit не работает

Serge
14.09.2016
19:06:36
Рома, pypy - это про оптимизацию. И он, возможно, понадобится

Google

Serge
14.09.2016
19:07:30
планируемые 50к могут и не произойти, а без нормальной распределенки и 10к никогда не потащишь
Ну, я про то, что надо написать по фигу на чем, правильно распределить, а потом масштабировать и оптимизировать, чтобы меньше масштабировалось
Правильно распределить сейчас можно что угодно

Roman
14.09.2016
19:11:28

Serge
14.09.2016
19:12:12

Roman
14.09.2016
19:12:26
Если нет цели "любой ценой на одной железке", то лучше взять 4 машины и балансить ipvs

Danil
14.09.2016
19:12:48
Цели нет, но теперь есть интерес на 400krps )

Serge
14.09.2016
19:13:10

Danil
14.09.2016
19:13:14
ну и опять же что это за запросы в твоём случае? просто моментальный ответ?

Roman
14.09.2016
19:13:21

Serge
14.09.2016
19:13:32
В реальном проекте ты максимум статику так сможешь отдавать

Roman
14.09.2016
19:14:04

Serge
14.09.2016
19:14:32

Google

Roman
14.09.2016
19:14:50
Собирал за 100ms запросы и батчем в редис :) ну и кеш в shm :)

Serge
14.09.2016
19:15:11
Короче, вакуум

Roman
14.09.2016
19:15:29
Вообщем, хайлоад - это соревнование по чтению/записи памяти :)
А кто из вас трогал LMDB?

Aleksander
14.09.2016
21:12:53

amureki
14.09.2016
21:13:46
А, отлично, надо будет зарегистрироваться, спасибо

Aleksander
14.09.2016
21:14:30
кстати, вроде не было ещё https://github.com/universe-2016
теперь код ревью есть и таск-треккер как в трелло

Dmitry
14.09.2016
21:15:42

Serge
14.09.2016
22:12:12
и таск-трекер тоже

Aleksandr
14.09.2016
23:19:34
суп, чят
кто нить знаком с такой штукой?
https://github.com/quantmind/pulsar
ну т.е. оно не про веб
а про то как писать приложение свое в актор стиле

Dmitry
14.09.2016
23:20:54
угу

Aleksandr
14.09.2016
23:21:01
знаком?

Dmitry
14.09.2016
23:21:25
неа, сейчас посмотрел

Google

Aleksandr
14.09.2016
23:22:01
короче в целом идея интригует, меня вообще всякие штуки типа pluggy интригуют
тут вот очередная надежная модель исполнения
вот что было бы круто
если бы оно было именно фреймворком создания компонентной системы, как плагги прям только на воркерах, чтобы всякие свистелки типа ентри поинтов из сетуптулс были и вот это вот всё
пока оно какое то голенькое
типа пишешь компонент а система сама решает как он будет взаимодействовать с другими компонентами - через IPC, http, rabbit, sockets
или просто внутренний dto какой то может юзать если это в рамках одного потока
более того компоненты системы могут быть написаны на других языках

Roman
14.09.2016
23:28:20
мне кажется этот пульсар многословным
и ещё не понятно что у этой конструкции со скоростью

Aleksandr
14.09.2016
23:28:44
хм, пример довольно лаконичный
скорость тут не главное

Roman
14.09.2016
23:29:24
я не понимаю зачем городить акторы без вытесняющей многозадачности

Aleksandr
14.09.2016
23:29:59
чтобы локов меньше было

Roman
14.09.2016
23:30:21
лок у тебя там и так один )) и зовётся gil

Aleksandr
14.09.2016
23:30:39
пока поток у меня один клал я на гил
а он у меня может быть один

Roman
14.09.2016
23:31:15
я вообщем-то о чем: мы вот такие прониклись акторами и решили написать что-то используя этот pulsar
супервизоры и вот это всё.
но по ошибке в акторе накатали busy loop

Google

Aleksandr
14.09.2016
23:32:02
нада как в эрланге
кооператив с вытеснением

Roman
14.09.2016
23:32:17
который сожрёт всё. и супервизоры и вот это всё не поможет.

Aleksandr
14.09.2016
23:32:29
ну правильно да
так то аргумент ну такой себе, сейчас написано дофига под асинкио например
там ровно это
написал говно - повесил всё

Roman
14.09.2016
23:33:44
вообщем, была бы ручечка в интерпретаторе "после исполнения такого-то количества инструкций байткода и прыгнуть в специальный хендлер"

Aleksandr
14.09.2016
23:33:58
ммм

Admin
ERROR: S client not available

Aleksandr
14.09.2016
23:34:00
не все так просто
инструкцииоченб недетерминированные по времени

Roman
14.09.2016
23:34:17
ну, в эрланге процесс в busy loop не ушатает всё.

Aleksandr
14.09.2016
23:34:19
при этом атомарные
вот в эрланге прикольна платформа как раз, этого не хватает в рульсаре
типа прозрачно пишется распределенка
код внутри потока не думает как ему общаться с другим потоком, способ один только

Serge
14.09.2016
23:42:25

Aleksandr
14.09.2016
23:43:07
файловая система

Google

Aleksandr
14.09.2016
23:43:23
это рас
во вторых нафига?)
акторы как раз существенно не имеют шаред стейта

Serge
14.09.2016
23:49:25

Aleksandr
14.09.2016
23:50:29
ну да, шаред стейт не нужен, нужны очереди
я о том же

Serge
14.09.2016
23:50:41
Вообще, можно, конечно наворотить с 33-я уровнями абстракции, чтобы работало.
Но я не буду это дебажить

Aleksandr
14.09.2016
23:51:10
стоп, ты о чем

Serge
14.09.2016
23:51:15
Я ерланг то задолбался дебажить в свое время.

Aleksandr
14.09.2016
23:51:31
процессы в питоне и так через очередь болтают
multiprocessing.queue

Serge
14.09.2016
23:51:56
Ну, блин, это код, который будет работать как py.test. понимаешь?

Aleksandr
14.09.2016
23:52:03
да
не так
он будет работать не так как питест

Serge
14.09.2016
23:52:36
И понять что и где там застряло, почему в какую трубу улетело, это будет ад

Aleksandr
14.09.2016
23:53:06
ну это типично для распределенного приложения же
я просто фантазирую о таком ML стайле
мелкомасштабные проектирование и крупномасштабное становятся одинаковыми
а вся тонкота и гемор уходит в платформу которую пишут умные люди

Serge
14.09.2016
23:54:11
У тебя будет n-воркеров в процессе + m-процессов и чахорда пайпов между ними. И три слоя абстракции в роутинге