Dmitry
11.01.2018
15:26:07
ну короче, это уже беда прогромистов
Sergey
11.01.2018
15:29:05
динамика - это то что меняется на каждый запрос. То что индексирует бот - не должно изменяться на каждый запрос. Кешировать "динамику" нжинкс научился еще в 200х кажется. Если что. Т.е. прокешировать индекс пейдж сайта (сформированную динамически пхп) можно от пхпплагинов(которые генерят штмл) до нжинкс,варниш и т.д. заканчивая клаудфларе.
Dmitry
11.01.2018
15:29:45
это так себе дисскусия без предмета
но я тоже думаю что в консерватории чет не то
Google
terry
11.01.2018
15:30:20
я же сказал
Sergey
11.01.2018
15:31:53
это так себе дисскусия без предмета
абсолютно. точных цифр не было, зато "код гавно, программисты унылые, даешь аутоскалинг".
Нет конкретики. Это как мне недавно ответили (но я не готов пока эту конкретику сформировать и озвучить)
Dan
11.01.2018
15:59:16
Maxim
11.01.2018
20:39:56
народ, а в проксе нету клауд инита родными средствами?
Krasnov
11.01.2018
20:53:21
фа
AL
12.01.2018
12:46:59
всем привет. Может кто подскажет с чем может быть связано дикое проседание системных вызовов под KVM после установки патча KPTI? ось Centos7 host и guest. Разница (с патчем и без) на хостовой системе почти незаметна
-_+
12.01.2018
12:48:51
А сам квм обновляли?
В нем же тоже был патч
от спектра
AL
12.01.2018
12:49:26
да он в центосе старый, не прилетало обновление
-_+
12.01.2018
12:50:28
В проксе накатился ж, а в центос хз
greydjin
12.01.2018
12:53:02
реально сильно тупит прокс после установки обновления? патч от спектра ведь с обычным apt upgrade устанавливается?
Google
Andrei
12.01.2018
12:53:50
я обновился до патча - пока подожду - гостей левых не хостю
AL
12.01.2018
12:54:30
я у всяких провайдеров понабрал тестовых VDS KVM и просадка от патча на моем синтетическом тесте syscall'ов в среднем в 4 раза. У меня же 28 раз
проц у меня 4 штуки Xeon L5420 2.5 Ggz.
Andrei
12.01.2018
12:56:40
я думаю патчи клепали впопыхах кривыми х*я**и - через месяцок норм патчи будут.
AL
12.01.2018
12:57:21
я на это очень надеюсь
пока единственный вариант у меня это отказ от виртуализации
но хостовой системе разница очень мала, а на kvm полная жопа
вот думаю, может кто уже столкнулся и как-то решил эту проблему? :)))
запостил в багтрекер redhat. Посмотрю что они ответят
у меня сраная проприетарная прога делает этот close() в общей сложности 600 тыс. раз. И это замедляет работу этой самой проги примерно в 60 раз
а без патча летает
greydjin
12.01.2018
13:04:47
ну вот я тоже никого чужого не хощу, но получается что уязвимые вебсервисы на одной тачке которая смотрит в интернет ставит крест на безопасности всех вм на хосте)
AL
12.01.2018
13:06:11
похоже, что на более современных процессорах патч не так заметен как на древних :(
ради этого менять сервер у которых 4 четырехядерных Xeon как-то совсем уж западло
в моем случае патч не хостовой системе не влияет на производительность системных вызовов виртуалки
а вот патч гостевой системы просаживает системных вызовы очень сильно
*патч не хостовой системе
блин
*патч на хостовой системе
Sergey
12.01.2018
14:10:44
вы чем то меряли перфоманс до и после? или ориентируетесь только по специфической проге?
Google
AL
12.01.2018
15:41:25
я написал на си :
test-syscall.c:
void main(int argc, char *argv[]) {
int i;
for (i=0; i<100000; i++) {
close(i);
}
}
gcc -o test-syscall test-syscall.c
измеряю так time ./test-syscall
на вид это синтетический тест, но некторые программы делают подобное перед fork() или перед execve(), беря значение колиества файловых дескрипторов из getrlimit(RLIMIT_NOFILE, ...). В моём случае лимит на файлы 100000
у меня специфическая проприетарная прога делает подобное три раза подряд. На KVM на это уходит 0.7 с на моём проце
если в гостевой системе ядру передать nopti (отключить патч), то мой тест проходит в 28 раз быстрее , за 0.026s
у меня есть ещё один сервер Xeon на 1.8 Ггц. На нем, на KVM тест проходит за 1.1s )
Hackru
12.01.2018
15:50:59
AL
12.01.2018
15:51:14
на виртуалке есть пользователи, которых могут ломануть
Hackru
12.01.2018
15:51:34
ну и что?
из виртуалки им всё равно не выбраться
AL
12.01.2018
15:52:04
да, но если один ломанёт другого, то будет плохо
оно там под хостинг
жалко в общем, придётся что-то мудрить или перезжать на физический сервер
я взял для теста триальные VDS KVM у трёх разных провайдеров, частоты процессора такие же как у меня 2.5 Ггц, и там такой задержки нет. На всех протестированных виртуалках время выполнения такое же как на моей хостовой системе. Везде Centos 7 с этим злополучным патачем kpti
единственное отличие - пройессоры там новее чем у меня :)
то ли у меня какая-то хрень с настройками, толи Intel реально старые процы захотел так вывести из работы
насколько я знаю pcid центос пока не умеет
Hackru
12.01.2018
16:03:05
интел заявляла всё что старее skylake будет ногу лизать
Vladimir
12.01.2018
16:03:07
@Alexey50 у нас цо7 везде. Ядро из коробки отвратительно
Не виртуализация впрочем, но при установке родного ядра с патчем падение скорости до 2.5 раз
Google
Vladimir
12.01.2018
16:03:54
А вот если поставить 4.9 или 4.14, то все прилично
4.9 - всего 5% падение
На 4.14 почти не заметно
Hackru
12.01.2018
16:04:33
но как же ЯДРО РЕДХАТА САМОЕ ЛУЧШЕЕ КОКОКОКОКО
Vladimir
12.01.2018
16:05:55
Но у нас и ЦПУ довольно новые. Haswell/Broadwell (e5v3/4)
Admin
Dmitry
12.01.2018
16:08:31
Vladimir
12.01.2018
16:08:51
На 4.14 плюшки в виде blk-mq перекрыти оверхед патча и пострадала у сервиса только медианная задержка, стабильно но на 2%
На 4.9 пострадало все на 4-5%
На 3.10 появились 25 перцентиль ответа вырос с 300мкс до 50мс
Медиана вдвое
И т.п.
aleksandr
12.01.2018
16:10:14
Hackru
12.01.2018
16:10:56
так что на графике-то?
почему после патча стало лучше?
Vladimir
12.01.2018
16:11:27
у нас так
Hackru
12.01.2018
16:11:46
схоронил
Vladimir
12.01.2018
16:12:00
но сервис специфичный, делает много мелкоблочного i/o
на запись и чтение
Google
Vladimir
12.01.2018
16:12:57
но впрочем как раз должен быть один из worst case'ов для патча
aleksandr
12.01.2018
16:13:45
AL
12.01.2018
16:14:50
я стаил на гостя 4.14 ядро с патчем, лучше не стало. На хост пока не ставил
для моего процессора совершенно никаких изменений :(((
может быть при нагрузке даст что-то, но единовременные тесты как были заоблачными так и остались :(
Roman
12.01.2018
19:21:00
То ж вроде писали что эти патчи/заплатки сильно повлияют на производительность старых камней, а на современных не так сильно
Hackru
12.01.2018
21:11:30
пасаны в мейллист прокса уже пишут
- With kernel 4.13.13-3-pve:
CPU BOGOMIPS: 12069.96
REGEX/SECOND: 1098494
BUFFERED READS: 82.30 MB/sec
AVERAGE SEEK TIME: 15.41 ms
FSYNCS/SECOND: 44.95
- With kernel 4.13.13-4-pve:
CPU BOGOMIPS: 12070.84
REGEX/SECOND: 1252864
BUFFERED READS: 28.31 MB/sec
AVERAGE SEEK TIME: 46.43 ms
FSYNCS/SECOND: 19.14
greydjin
12.01.2018
22:03:53
просто вау
AL
12.01.2018
22:04:30
добро пожаловать на 10 лет назад
я смотрю у прокса в ченджлоге "KVM fix for old CPUs"
может моя проблема там решена...
а не, это от 4 декабря апдейт
Konstantin
13.01.2018
04:24:03
подскажите для oVirt если поставить 2 машины Self-hosted как быть со storage если допустим нету внешней NFS или внешний сторадж маст хэв?
как вариант synology NFS может подойдет?
Stanislav
13.01.2018
07:12:29
Овирт ради двух машин без стораджа - уныловато. Энжин ест прилично ресурсов. Нфс подойдет
Посмотри на прокс