@devops_ru

Страница 2278 из 4568
Марк ☢
11.02.2017
17:42:26
А если клиентов много. То переключение контекстов. Либо если евент луп -- reader starwation

Nikolay
11.02.2017
17:42:32
сервера быстрые, хочешь сказать?

Daniel
11.02.2017
17:42:33
я не говорил что медленный быстрый или говно

Nikolay
11.02.2017
17:42:42
тогда что ты говорил вообще?

Google
Марк ☢
11.02.2017
17:43:57
А если клиентов много. То переключение контекстов. Либо если евент луп -- reader starwation
А еще. Если ответики мелкие, то и пакеты мелкие. И всё. Пяка.

Daniel
11.02.2017
17:44:16
тогда что ты говорил вообще?
я пожалуй закончу общение с тобой твоя упертость/упоротость лишает меня нервов надеюсь на проектах не пересечемся нигде

Nikolay
11.02.2017
17:44:44
уж на что я не любитель го, но ты, извини, был неправ

Марк ☢
11.02.2017
17:45:11


8-байтный ответ, Карл

Sergey
11.02.2017
17:45:44
8-байтный ответ, Карл
уходи, извращенец

Nikolay
11.02.2017
17:45:58
8-байтный ответ, Карл
вот, наверное, как-то так Даниэль и меняет rps на серверах

Vladimir
11.02.2017
17:46:14
Завези мне в него нормальные библиотеки, эксепшны и синтаксис - с удовольствием
про библиотеки ты вроде как-то говорил, что на Го просто смотрел года два назад последний раз

Nikolay
11.02.2017
17:46:51
про библиотеки ты вроде как-то говорил, что на Го просто смотрел года два назад последний раз
ну, про библиотеки я говорю в рамках своей сферы деятельности - в го для нее просто нет ничего

Марк ☢
11.02.2017
17:46:51
уходи, извращенец
Это самый суровый режим типа. В других очевидно рпс будет меньше и видимо упрется в скорость среды

Roman
11.02.2017
17:48:46
Google
Марк ☢
11.02.2017
17:48:49
Они там в темпесте упоролись и написали свой парсер хттп еще быстрее с их слов чем у нгинкса

Sergey
11.02.2017
17:49:05
а у нгинкса не особо быстрый

он быстр overall, но отнюдь не экстремально

Nikolay
11.02.2017
17:49:28
Подробнее ?
так я ж тебе выше писал - размер шмата не влияет на скорость того, как он будет обрабатываться

Марк ☢
11.02.2017
17:49:32
а у нгинкса не особо быстрый
Да ну уж ладно. А у кого быстрее ? И полностью по рфц при том ?

Roman
11.02.2017
17:49:39
Провести эксперимент с любым кейсом. В качестве сетевой среды использовать локалхост.
Плохой вариант. Не надо использовать лупбэк для таких тестов

Nikolay
11.02.2017
17:49:41
потому что он нарезается на пакеты так или иначе

Марк ☢
11.02.2017
17:49:59
так я ж тебе выше писал - размер шмата не влияет на скорость того, как он будет обрабатываться
Вляет. Чтобы отправить один шмот требуется один сисколл. Со всеми вытекающими

Sergey
11.02.2017
17:50:17
Да ну уж ладно. А у кого быстрее ? И полностью по рфц при том ?
по каким из? :) написать парсер http 1.0 и отдаватор 200 ок - не велика задача.

Марк ☢
11.02.2017
17:50:20
Nikolay
11.02.2017
17:50:28
Без разницы
огромная разница

Марк ☢
11.02.2017
17:50:32
Можно :) writev же
Ага. Для хттп.

Nikolay
11.02.2017
17:50:54
и да, на асинхронном клиенте, я не буду отправлять шматом, разумеется, я же не наркоман

Sergey
11.02.2017
17:51:14
Нифига. Я писал.
h2o как минимум быстрее

Марк ☢
11.02.2017
17:51:20
Не очень то просто. Там всякие хеадер континуэйшены

Google
Марк ☢
11.02.2017
17:51:26
И др.

Sergey
11.02.2017
17:52:00
Марк ☢
11.02.2017
17:52:12
Кароче. Есть у кого пруфы на то что некий вебсервер с полтычка засатуратил 40 гигабитный линк мелкими ответами ?

1.0 очень простой как протокол.
Не совсем. Это только кажется.

Ну. Если заголовки парсить не надо то да

Roman
11.02.2017
17:53:18
Подробнее ?
Кусочков может быть много мелких, но главное чтобы в один сокет

Марк ☢
11.02.2017
17:53:46
Кусочков может быть много мелких, но главное чтобы в один сокет
Ну так это не кейс отдачи ответов по хттп. За исключением если есть пайплайнинг

Марк ☢
11.02.2017
17:54:57
Согласен. На нетмапе или дпдк реально канает

Roman
11.02.2017
17:55:07
Или же dpdk + сетевой стек в юзерленде

Марк ☢
11.02.2017
17:55:26
так epoll на каком уровне работает?
Кроме как на уровне плинтуса -- ответить умнее не могу

Nikolay
11.02.2017
17:55:35
но ты поверх него можешь запустить TCP, который нарежет на пакеты все, что ты в сокет запишешь

большими кусками, маленькими - без разницы

это просто байты

Roman
11.02.2017
17:57:15
Эээ

Nikolay
11.02.2017
17:57:20
и где я неправ? ну да, вызов write() заблокирует

если большое передать туда что-то

Google
Roman
11.02.2017
17:57:35
Ээ

Nikolay
11.02.2017
17:57:38
но в асинхронном клиенте это и так понятно

Roman
11.02.2017
17:57:44
Вообще-то нет

Nikolay
11.02.2017
17:58:04
Вообще-то нет
Роман, что я неправильно написал?

поправь

пожалуйста

Марк ☢
11.02.2017
17:58:38
Для начала начал прочитайте про проблему 10к соединений. Осознайте реальную проблему. Потом прочитайте почему придумали дпдк и нетмап.

Nikolay
11.02.2017
17:59:06
и чем он отличается от poll/select/etc

Марк ☢
11.02.2017
17:59:44
я знаю про проблему 10к соединений, я про нее статью писал. И знаю, как работает epoll
Отлично. А теперь представь что клиентов реально 10к. И все активно пишут либо читают

Roman
11.02.2017
17:59:59
Роман, что я неправильно написал?
Что будет если ты попробуешь записать в сокет файл на 1гб?

Nikolay
11.02.2017
18:00:07
Отлично. А теперь представь что клиентов реально 10к. И все активно пишут либо читают
отлично, и? у нас будет дофига файловых дескрипторов и еполл поверх них

Марк ☢
11.02.2017
18:00:15
и это через еполл отлично работает.
Не отлично. В плане задержек

Nikolay
11.02.2017
18:00:19
Что будет если ты попробуешь записать в сокет файл на 1гб?
зависит от того, синхронный сокет или нет

Sergey
11.02.2017
18:00:45
Не отлично. В плане задержек
10к - не то число на котором начинаешь что-то замечать здесь.

Nikolay
11.02.2017
18:00:52
там события, а не линейный пробег

Google
Марк ☢
11.02.2017
18:01:15
10к - не то число на котором начинаешь что-то замечать здесь.
Да ну уж ладно. Пока обработка 9999 клиентов идет, один ждёт

Марк ☢
11.02.2017
18:01:56
там события, а не линейный пробег
Когда все активны линейный пробег будет в твоём приложении. А не в едре.

Nikolay
11.02.2017
18:01:58
еполл может миллионы клиентов одновременно держать

Sergey
11.02.2017
18:01:59
Да ну уж ладно. Пока обработка 9999 клиентов идет, один ждёт
каждый клиент получает свою порцию данных по очереди. event-loop не должен занимать слишком уж много времени. но он и не занимает. на 10к.

10к было проблемой для префорка

Nikolay
11.02.2017
18:02:31
Когда все активны линейный пробег будет в твоём приложении. А не в едре.
в приложении будут коллбэки на системные события просто

Sergey
11.02.2017
18:02:50
Когда все активны линейный пробег будет в твоём приложении. А не в едре.
каждому по 4к байт, всего 40 мбайт данных. в памяти. миллисекунды.

Nikolay
11.02.2017
18:03:16
так чего, я до сих пор не увидел причины ваших обильных фейспалмов выше

что я написал не так?

Марк ☢
11.02.2017
18:03:28
Ой всё.

Sergey
11.02.2017
18:03:36
Ой всё.
не ой все

а простой wrk

Nikolay
11.02.2017
18:03:42
O_NONBLOCK
в таком случае ничего особенного не произойдет - будет писаться, когда сокет будет готов

Ой всё.
это твой аргумент?

Страница 2278 из 4568