@symfony_php

Страница 33 из 1418
Sergey
22.12.2016
17:51:42
а на джаве хер знает

мне критично что бы оно держало под 50К активных юзеров

для socket-io есть готовый адаптер который через pub/sub по класстеру сообщения раскидывает сам

для моих нужд этого более чем хватает

Google
Sergey
22.12.2016
17:53:29
мне критично что бы оно держало под 50К активных юзеров
jetty вроде тянет, можно в jvm руме узнать. там думаю писали такое уже

Sergey
22.12.2016
17:53:56
на ноде в прод я писал, на джаве - нет

то что я писал на котлине в прод - там нагрузок не будет никогда

потому хер знает

Sergey
22.12.2016
17:54:19
разве что так

а нода столько держит?

Sergey
22.12.2016
17:54:28
с точки зрения рисков мне спокойнее будет с нодой

нода?

Sergey
22.12.2016
17:54:42
ну да

и по ресурсам как?

Sergey
22.12.2016
17:54:53
ну мол... одним процессом мало, но я ж буду запускать минимум 2

короч я набросаю прототип и сверху попробую на танке написать нагрузочный тест

и потом скажу че как

Google
Sergey
22.12.2016
17:56:14
но вообще не думаю что у ноды будут проблемы

для такой простой фигни

Sergey
22.12.2016
17:56:44
ну держать это полбеды.. еще ж обрабатывать надо то что гуляет

а нода как начнет тебе блочить все)

Sergey
22.12.2016
17:57:16
> а нода как начнет тебе блочить все) ты о чем? там жеж libev все разруливает

какие блокировки?

ты про то что сам по себе js медленный? если ты пишешь норм то должно быть норм.

Sergey
22.12.2016
17:58:03
процессинговые блокировки

грубо говоря обработать цикл на 1к элементов - заблочит все ядро

Sergey
22.12.2016
17:59:17
на 1 милисекунду?)

не страшно

потому и будет 2 процесса

что бы распаралелить обработку

а может потом и 4

если юзеров будет уже за миллион

Sergey
22.12.2016
17:59:58
ну а если больше?) я к тому что нода сама не сообразит же перераспределение

Sergey
22.12.2016
18:00:10
перераспределение чего? пользователей?

я просто слабо понимаю о чем ты

Sergey
22.12.2016
18:00:19
ну у тебя висит к примеру 25к коннектов на 1м процессе

Sergey
22.12.2016
18:00:25
ну

Google
Sergey
22.12.2016
18:00:33
и у тебя ядро занялось чем-то на 100мс

Sergey
22.12.2016
18:00:38
погоди

а зачем там циклы?)

Sergey
22.12.2016
18:00:46
все 25к коннектов будут сидеть плевать в потолок

ну условно циклы) или у тебя вообще все сквозное?

Sergey
22.12.2016
18:01:29
эм....

ну у меня есть штука которая... действует как чат

ну есть еще броадкаст сообщений

тогда да, пройдется по всем 25К челикам

но на этот случай есть варианты

а в контексте чатов у тебя есть айдишки партисипантов всегда

и тогда все сводится к тупому лукапу в хэштаблице

http://benchmarksgame.alioth.debian.org/u64q/javascript.html

Sergey
22.12.2016
18:05:12
хз, надо тестить

Sergey
22.12.2016
18:05:26
ну потому буду писать нагрузочный тест

на всякий

https://artillery.io/docs/gettingstarted.html

вот какая няшка есть

правда ей много трафику сгенерить не выйдет походу

с одного процесса так точно

Google
Sergey
22.12.2016
18:07:50
надо будет просить чуваков в офисе тоже запустить

Sergey
22.12.2016
18:07:52
главное чтобы одновременно подняло 50к коннектов

и висело с ними

Sergey
22.12.2016
18:08:05
ну.... 5 компов, каждый поднимит по 10К

минут 10-15 поработает

и смотреть результаты

или подниму пару сервачков на часок

что бы бомбили

Sergey
22.12.2016
18:09:30
https://blog.jayway.com/2015/04/13/600k-concurrent-websocket-connections-on-aws-using-node-js/

Sergey
22.12.2016
18:10:40
норм для одного инстанса

Sergey
22.12.2016
18:11:58
>I created my own client with the same websocket lib websockets/ws which I then deployed on a cluster of M1.Large instances. It was silent connections but to keep the connections alive, if you are behind a elastic load balancer, you need to check the idletimeout setting on the loadbalancer and send a ping before that time expires. If not the load balancer will start to drop your connections.

Sergey
22.12.2016
18:13:41
ну я понял что они смотрели сколько вообще коннекшенов можно

там что бы все было ок надо еще буферы под tcp/ip подтянить слегка

ну мол если хотя бы 1% всех чуваков будут что-то слать раз в пару секунд

короч хз

я прототип накидаю а там буду смотреть

я все еще думаю что этим тупо никто не будет пользоваться

ну мол фича которую нужно сделать... он бесполезна

Sergey
22.12.2016
18:27:01
а че бесполезна?

посмотри еще в сторону Vert.x

Google
Oleg
22.12.2016
21:24:01
App\Http\EventListener, App\Http\Middleware, App\Http\ArgumentResolver
Серег, а запили пример мидлвары пжст

Sergey
22.12.2016
21:40:05
Серег, а запили пример мидлвары пжст
эм... это просто пример. В своих проектах пока-что у меня мидлварей нет(

Oleg
22.12.2016
21:40:18
А, ну ок

Sergey
22.12.2016
21:40:23
но планирую вынести туда парочку для компоновки ресурсов api и аутентификации jwt

Oleg
22.12.2016
21:40:54
Они как листенеры дёргаются или явно в коде ?

Sergey
22.12.2016
21:41:34
я планировал юзать psr-7 мидлвари но еще не уверен

Sergey
22.12.2016
21:45:37
чем они от обычных листенеров отличаются то?

Sergey
22.12.2016
21:46:45
ну... вместо onKernelRequest(GetResponse $event)

Sergey
22.12.2016
21:47:01
смысл тот же ведь

Sergey
22.12.2016
21:47:04
handle(Request $reuqest, KernelInterface $next): Response

смысл тот же, просто я думал отвязать мидлвари от симфони и привязать к psr-7

но еще сильно сомневаюсь

Sergey
22.12.2016
21:47:53
тот же вопрос - смысл?

Sergey
22.12.2016
21:48:03
перестать юзать симфони?)

хотя я раньше перестану юзать php

Sergey
22.12.2016
21:48:15
бгг

это верно

Mihail
23.12.2016
08:22:49
всем привет )

есть такой вопросик, как отключить подгрузку связей, вот есть например таблица классы и она связана один ко многим с студентами, мне надо вывести список классов, но помимо этого еще идут запросу по каждому студенту в классе и последующим свзям, как то дохера запросов получается )

Sergey
23.12.2016
08:24:54
привет, lazy поставь на связь

Mihail
23.12.2016
08:25:45
хм.. та вроде стоит, ну ща посмотрб, спс

Sergey
23.12.2016
08:26:37
если ты хоть как-то обращаешься к коллекции студентов внутри, то оно начнет грузить все

Страница 33 из 1418