@rudepython

Страница 127 из 1719
Amaro
01.01.2017
19:08:43
Eugine
01.01.2017
20:08:15
Это он тебя говном назвал

кажется тут что-то не так

Google
Roman
02.01.2017
21:55:12
кажется тут что-то не так
всех притягивает грубость

Eugine
02.01.2017
21:56:40
Dmitry
04.01.2017
08:16:40
Возможность использования символов подчёркивания для улучшения читаемости чисел, например, теперь можно указывать 1_000_000 или 0x_FF_FF_FF УПРЛС!

Igor
04.01.2017
08:22:57
еееепт. это в 3.6?

Roman
04.01.2017
08:25:10
таки да

Zart
04.01.2017
10:02:31
не тормоза

Igor
04.01.2017
11:20:12
че за остров?

Zart
04.01.2017
11:22:02
понятия не имею. какой-то очередной локальный красноярский срач

Andy
04.01.2017
19:22:49
Мде, тесты на aiohttp все-таки выглядят не впечатляюще тупо вернуть ответ текстом – около 900 в секунду на одном ядре, если просто больше ничего, вообще Чо-то как-то не впечатляюще У меня есть python 3.6 и aiohttp последний, что крутить, чтобы оно обрабатывало больше 1К запросов в секунду?

Andy
04.01.2017
19:25:50
а чо он по тестам тогда самый крутой?)

Roman
04.01.2017
19:33:39
Google
Roman
04.01.2017
19:34:12
pypy + picohttpparser

Andy
04.01.2017
19:46:06
шляпа, в общем, какая-то попробую потестить в той же конфигурации go, будет грустно, если она дернет asyncio

Igor
04.01.2017
20:02:30
почему грустно-то нашел с чем сравнить

https://github.com/google/grumpy

ништяк

Andy
04.01.2017
20:06:33
Так у меня сейчас примитивная хреновина, которая возвращает тупо текст, ничего и никого нет, кроме верни ответ вот думаю запилить попозже для чистоты эксперимента только на asyncio и посмотреть

Eugine
04.01.2017
20:56:47
от этого оверхеда питоновского не убавилось жи

напиши демонок на libev

Zart
04.01.2017
21:01:13
зачем?

Eugine
04.01.2017
21:18:06
потому что может

Zart
04.01.2017
21:18:30
нахуй не нужно, когда есть готовый libuv порт для питона?

Eugine
04.01.2017
21:18:42
да похуй

ивент лупчик на сях

Zart
04.01.2017
21:18:56
ну

а я чо, блядь, сказал

Eugine
04.01.2017
21:19:18
> нахуй не нужно, когда есть готовый libuv порт для питона? зачем питон?

потому что чат о нем?

он же тут хочет максимальной производительности

Zart
04.01.2017
21:19:47
https://github.com/MagicStack/uvloop

Google
Zart
04.01.2017
21:19:59
самое модное для питорасов с асинком

Roman
04.01.2017
23:59:47
Лучше libev

Хотя

Можно упороться, взять libuv и сделать колбэки в pypy

Zart
05.01.2017
00:12:13
что самое смешное - все эти люди, ебущиеся с асинком, заканчивают тем, что ставят впереди нгинкс

на этом ваш асинк можно хоронить

Cykooz
05.01.2017
10:34:47
Удивляют люди которые тестируют сетевые фреймворки на "hello world". Как будто это максимум того что они умеют программировать. В реальном проекте первое что будет интересовать заказчика - это сколько времени вы потратите на работу. А ещё на старте как правило нет той дикой нагрузки, о которой все мечтают. А если в проекте нужна база данных, то главным оверхедом будет она, а не питон.

Dmitry
05.01.2017
11:04:34
смотря чего старт. у меня вот был городской интранет, "на старте" бывал 40к онлайн сразу после анонса через час :)

Dmitry
05.01.2017
11:06:48
про заказчика выше согласен, кстати. однажды босс не захотел "тратить время, других дел полно" и заказал на сторону офигенным программистам дружбана своего. программисты дружбана месяц пилили на сях, потом месяц искали утечки памяти. потом я (заказчик), психанул и за полдня написал на питоне, чтобы "лишь бы работало уже хоть как-нибудь". потом оно года полтора так и работало :)))

40к на какой сервис?
да какой угодно, господи. хоть видеочат, хоть архив телека.

Dmitry
05.01.2017
11:09:08
Потому что писать на сишечке надо только в крайнем случае
там были сцка перфекционисты, ваш питон гавно, щас мы сделаем расово верно, все будет быстро и чотко, с минимум цпу и ну вы поняли. ирония судьбы в том, что эта история у того насильника в мозгах отложилась все-таки. и стал он потом зарабатывать питоном через пару лет :) жаль, что получился в итоге джангоеб :)

ultranoise ?
05.01.2017
11:11:16
расово верно это не бизнес задача же ну

расово верно делается между релизами в свободное время

Google
Dmitry
05.01.2017
11:14:51
ну вот и научились раз и навсегда подрядчики :)

Cykooz
05.01.2017
11:19:19
Вот сходу 1.5к клиентов онлайн
Ну даже если и так, то остаётся фактор - "рассово верно асинхронку на ассемблере запилить" или "понятный и поддерживаемый код на Питоне, даже если не так быстро". В любом случае для такого старта надо что бы проект делали опытные профессионалы, которые даже на ассемблере не завалятся.

Roman
05.01.2017
11:30:57
На ассемблере это будет 100% фейл

Admin
ERROR: S client not available

Zart
05.01.2017
12:01:30
сами вы обоснуи

главный профит асинка - не скорость, а масштабируемость шоб держало до пизды коннектов с минимальным потреблением ресурсов если вы там хуячите сервис, который использует асинк для этого - то надо чтобы он фронтендом и работал а если сунуть нгинкс перед - то всё что это даст, перенесет буферизацию и все эти коннекты на него, тупо добавив латенси и избавив этот код от нагрузки

Eugine
05.01.2017
12:05:05
б не отменяет а

Zart
05.01.2017
12:05:50
ну поставьте перед нгингксом еще три нгинкса. ШОБ СУКА БЫСТРЕЕ

по факту это лишь замедлит всё нафиг

Eugine
05.01.2017
12:06:32
там не будет так дохуя замедления латенси, но твоя точка зрения ясна

Zart
05.01.2017
12:07:03
будет. каждый лишний хоп по переносу байтиков между интерфейсами дает латенси

доказано каждым роутером

Eugine
05.01.2017
12:07:10
не такое сильное

чтобы это влияло на

тз

Zart
05.01.2017
12:08:06
короче я к тому что если вы берете асинк, то ему место по возможности на фронте, без лишних прокладок

нгинксу всё еще есть место в этой архитектуре, но больше в роли балансера

а не в роли прокладки от медленных клиентов

ну и раздачи статики, шоб свой лисапед не рисовать

Google
Zart
05.01.2017
12:10:21
ну балансить можно разными методами

Нахер он не нужен
моя мысль к этому и сводилась в итоге

да какой угодно, господи. хоть видеочат, хоть архив телека.
кстати, а в природе водятся трансляции наших федеральных каналов в таймзонах отличных от московских?

Anatoly
05.01.2017
12:23:47
будет. каждый лишний хоп по переносу байтиков между интерфейсами дает латенси
латенси до юзера примерно 50 мс. латенси внутри ДЦ - меньше 1 мс. разница от одного лишнего хопа отсутствует

Zart
05.01.2017
12:26:55
у меня латенси до любого нормального сайта овер 100

Anatoly
05.01.2017
12:27:17
тем более.

Roman
05.01.2017
12:29:28
Или это Тай?

Zart
05.01.2017
12:30:11
это сибирь?

таки да, в жопе

Petr
05.01.2017
12:35:28
у меня до scaleway из новосиба аж 120

Andy
05.01.2017
14:05:00
таки у меня уже сейчас около 3К нагрузки, в пике – 40К одновременных коннектов И как бы, заказчик тоже я и цель – питон, потому что команда на питоне И nginx как балансировщик используется, ничего, живем норм, оверхед не добавляет)

Страница 127 из 1719