
Anton
31.01.2018
09:25:07
гыгыгы

Аггей
31.01.2018
09:26:33
Неполиткоректненько...

Anton
31.01.2018
09:28:52
у меня вот к сожалению нет доступа сейчас к адекватному не виртуализированному железу
чтобы предметно сравнить за пределами локалхоста

Google

Аггей
31.01.2018
09:29:49

Yaroslav
31.01.2018
09:33:06
ну и там не 4 сек, а в реальности где то 2.5 мсек
Во-первых, а зачем Вы измеряете погоду на Марсе (просто любопытно)?
Я к тому, что (с виду) этот "benchmark" не имеет ничего общего с какой-либо реальной нагрузкой.
Во-вторых, какая Вам разница, 2 или 3 миллисекунды выполняется какой-то запрос, в принципе?

Alexey
31.01.2018
09:35:38
ох, одни и те же разговоры всегда по кругу. стандартный вопрос №123, стандартный ответ №321

Anton
31.01.2018
09:35:46

Алексей
31.01.2018
09:36:35
это если у вас вся база в памяти помещается и диски совсем не использует. Иначе эти миллисекунды - погода на марсе.

Yaroslav
31.01.2018
09:37:18

Anton
31.01.2018
09:37:59

Darafei
31.01.2018
09:38:26
просто в этом конкретном сценарии непонятно, почему не положить всю эту базу в статичную json-ку и не фильтровать у клиента в браузере, раз это настолько нагруженный эндпоинт апи, что 500 rps vs 400 rps критичная разница
потому подоход и выглядит странным

Anton
31.01.2018
09:39:58
вы мне опять рассказываете, что мне это не нужно. что у пг свои фишки и скорость в них не входит... это ерунда и вы это знаете. если бы пг вдруг ускорился, то это было бы в заговках всех новостей
достаточно посмотреть на количество статей как пг с джонб уделывает монгу по скорости

Darafei
31.01.2018
09:41:16
мы предлагаем тебе ускориться с 500rps в 50000rps выкидыванием из логики работы CPU вообще
и деланием DMA из диска в сетевуху через sendfile

Google

Anton
31.01.2018
09:41:38

Alexey
31.01.2018
09:41:44

Yaroslav
31.01.2018
09:41:54

Maksim
31.01.2018
09:42:28

Anton
31.01.2018
09:42:32

Darafei
31.01.2018
09:42:43
а есть хороший курс по метрологии где-нибудь на курсэре?

Alexey
31.01.2018
09:42:58
и когда ловят за руку, начинает умалчивать

Алексей
31.01.2018
09:43:47
Да троллит он. "решение сводится к "добавьте памяти"" - это ж вообще огонь. Выкидываем все эти мудреные флешсистемы, покупаем стойку серверов с терабайтами оперативной памяти, и все проблемы решены!

Yaroslav
31.01.2018
09:43:48
нда...
Что "нда"? У Вас _реальная нагрузка_ 100% идентична вот этому, простите за выражение, benchmark-у? ;)

Alexey
31.01.2018
09:44:49
щас капитанить буду. да, все бенчмарки врут. нет, это не отменяет их полезности. да, разница в миллисекунды имеет значение (если вам кажется, что нет, поговорите с инженерами из интернет-гигантов, узнаете много нового). Да, в данном конкретном примере можно по-другому. Нет, в других по-другому может быть не нужно/не возможно

Anton
31.01.2018
09:44:52

Mike Chuguniy
31.01.2018
09:45:07

Alexey
31.01.2018
09:45:36
и нет, это вообще не про метрологию

Darafei
31.01.2018
09:46:01

Anton
31.01.2018
09:46:45
есть оригинальная база, есть дамп адаптированной к пг, есть запрос. что ещё надо?

Darafei
31.01.2018
09:47:00
финансирование

Anton
31.01.2018
09:47:15
логично...

Alex
31.01.2018
09:47:28

Anton
31.01.2018
09:47:34
купить коньяка и забыть о разговорах тут

Google

Darafei
31.01.2018
09:48:46
если тебе критичны эти 20% на этом запросе, ты найдёшь денег на патч
если ты не найдёшь денег, то может и не критичны и спор ради троллинга

Alexey
31.01.2018
09:49:20
но можно же на эти деньги оставить мускль и ещё на коньяк останется!

Darafei
31.01.2018
09:49:27
можно

Anton
31.01.2018
09:49:29
речь о другом. 20% тут, 40% там — мне все микрозапросы бенчмаркать?

Yaroslav
31.01.2018
09:49:48
щас капитанить буду. да, все бенчмарки врут. нет, это не отменяет их полезности. да, разница в миллисекунды имеет значение (если вам кажется, что нет, поговорите с инженерами из интернет-гигантов, узнаете много нового). Да, в данном конкретном примере можно по-другому. Нет, в других по-другому может быть не нужно/не возможно
Эээ... рассказы "инженеров интернет-гигантов" тоже ничего не значат, совсем.
Вот (несколько отвлекаясь от темы) мне интересно, почему, если человек работает в какой-то крупной/известной организации, многи тут же начинают свято верить, что он квалифицированный профессионал? ;)

Darafei
31.01.2018
09:50:16
пока сервер загружен меньше 30%, бенчмаркать почти ничего не надо

Anton
31.01.2018
09:50:34
если латенси не интересует, да

Alexey
31.01.2018
09:51:01

Darafei
31.01.2018
09:53:32

Anton
31.01.2018
09:53:45
да хрен с ними, гигантами. вот, допустим, для формирования индекса.хтмл мне надо выполнить 20 запросов по 3 мсек. это уже + 60 мсек латенси.

Сергей
31.01.2018
09:54:17

Yaroslav
31.01.2018
09:54:18

Anton
31.01.2018
09:54:25
если это будут не 3 мсек, а 2мсек запросы, то это всего + 40 мсек и это уже заметно лушче

Darafei
31.01.2018
09:54:37

Сергей
31.01.2018
09:54:47
в несколько корутин/горутин ? ну если у вас асинхронщина

Anton
31.01.2018
09:54:55
распараллелить?
много ты знаешь шаблонизаторов, которые умеют параллелить вызовы?

Сергей
31.01.2018
09:55:04
ну а не надо в шаблонизаторе делать запросы
в шаблонизатор надо уже передать готовый контекст

Anton
31.01.2018
09:55:35
ну по разному бывает. где то готовый, а гдето блоки включаются

Google

Anton
31.01.2018
09:56:43

Darafei
31.01.2018
09:57:01
а зачем ты везде тащишь pg?

Anton
31.01.2018
09:57:30
ну интересный вопрос, да. где то и склайта хватило бы...

Darafei
31.01.2018
09:58:00
ну унеси шаблонизатор в хранимку, если так хочется
будет за один запрос всё рендериться

Yaroslav
31.01.2018
09:58:23

Anton
31.01.2018
09:59:40
вы мне рассказываете опять о том, что пг это не про скорость. ну я уже понял. другого конструктива, видимо, не будет.

Аггей
31.01.2018
10:00:26
http://ps.tmpc.ru/065bc539 - mysql

Darafei
31.01.2018
10:00:56
7.6ms?

Аггей
31.01.2018
10:01:04
В целом да - 25% выигрыш у пг
Там в секундах
Ой
Кэш?

Darafei
31.01.2018
10:01:41
у тебя же постгрес на той же машине за 1 мс отрабатывал?

Yaroslav
31.01.2018
10:01:44

Аггей
31.01.2018
10:02:25
http://ps.tmpc.ru/927f532d
Вот. На том же железе

Anton
31.01.2018
10:02:40
> (да и работате с базой не самым лучшим образом)
я в раздумьях, продолжать мне или уже заткнуться

Google

Anton
31.01.2018
10:03:50
относится к обоим дб
вернее у пг то он судя по хитам уже прогрет

Аггей
31.01.2018
10:04:41

Yaroslav
31.01.2018
10:04:54

Anton
31.01.2018
10:05:36

Darafei
31.01.2018
10:07:18
как ускорить конкретный запрос - профилировать, дописывать, патчить.

Yaroslav
31.01.2018
10:07:31

Сергей
31.01.2018
10:07:55
у меня имеется дурацкий вопрос. А настройки пг и мускуля "одинаковые" на сколько это возможно? Вдруг ПГ настроен для работы на кофеварке?

Anton
31.01.2018
10:08:28

Darafei
31.01.2018
10:08:31
там есть план с explain analyze verbose buffers, он адекватный

Alexey
31.01.2018
10:09:32
Дело в том, что facebook/google —- это совсем другие вещи, т.е. сравнение яблок с апельсинами.
У них, например, обычно нет требований ACID, т.е. задачи _совсем_ другие, и эти многие их истории не имеют отношения к СУБД общего назначения.
простите, а как много вы знаете про инфраструктуру facebook/google? или вот хорошо, это не яблоки, а апельсины. А скажем Booking — это уже апельсины, или ещё яблоки? А Uber? А Twitter? Или вот Github?

Anton
31.01.2018
10:09:34

Сергей
31.01.2018
10:09:41
а ну ок извините пропустил ?

Аггей
31.01.2018
10:09:45
У pg все сток кроме shared_buffers - там 2 GB - взял то что было под рукой. mysql полный сток. Оба на ubuntu 16.04

Anton
31.01.2018
10:10:23

Darafei
31.01.2018
10:10:36
используйте clickhouse
он ещё быстрее
и гордится этим