kiosaku
так что только с диском засада :(
kiosaku
когда всё закончу, отпишусь на форуме проксмокса, как оно прошло :)
Михаил
ты 12ую версию там уже теребонькаешь?
kiosaku
ceph поверх физических дисков
kiosaku
э?
Михаил
да что ж такое)
Михаил
версия цеф какая?
kiosaku
hammer
kiosaku
weight 3.640
kiosaku
значение от размера диска не зависит же?
Михаил
kiosaku
ладно, потом, когда через pve создам - поправлю
kiosaku
в root {} вес хоста = сумме весов дисков, так?
kiosaku
вобщем, не появляется диск в crushmap-е при создании :(
J
kiosaku
ну да
kiosaku
видимо, бага в проксмоксе
kiosaku
ceph osd crush add {id-or-name} {weight} [{bucket-type}={bucket-name} ...]
kiosaku
а где мне тут хост указать?
kiosaku
bucket-name=hostXX ?
kiosaku
отбой - host=hostname
kiosaku
так, а теперь самое интересное. proxmox показывает latency apply в 300-400ms на ssd
kiosaku
хотя iostat показывает по нулям
J
А что с этим не так?
kiosaku
ну как бы нагрузки нет, а 200мс показывает. откуда?
Михаил
kiosaku
там нули должны быть
J
Почему нули?
Apply latency это же время за которое данные записываются в filestore через syncfs.
J
Это бесполезная метрика, так то.
Ну в смысле для понимания производительности именно OSD. Тут больше вопросов к VFS и самой файловой системе, мне кажется)
Михаил
Михаил
Для общего понимания производительности диска нормально
kiosaku
т.е. на нагруженном диске оно 1-3 ms
kiosaku
а на не нагруженном - 200-400мс
kiosaku
и это нормально???
kiosaku
кстати, а можно как-нибудь переименовать osd.xx в osd.yy ?
kiosaku
а то подвисло и при создании диска один номер пропустило
kiosaku
увы
Михаил
Михаил
Только если сетап по новой удалив файлы из /var/lib/ceph/osd/osd_$num
kiosaku
не, это не прокатило
kiosaku
а вот добавление диска в crush map и удаление его оттуда - прокатило :)
J
и это нормально???
А вот чо давай.
Как время будет, возьми прям с админ сокета данные о производительности. Прям все метрики что можно.
Может чо и найдем там.
kiosaku
доберусь - попробую
Konstantin
есть кто трезвый? ) подскажите кто тестил\знает - пилить по одному osd поверх аппаратного raid10 или 4 osd через JBOD? SATA диски
Igor
Ответили же в openstack)
J
Konstantin
Konstantin
спасибо, буду jbod тестить
Konstantin
что такое IT? 0_o
Sergei
Sergei
точно.
Sergei
(наркоман)
J
Ну не суть.
Режим когда диски в системе видны напрямую, рейд контроллер работает как sata\sas контроллер, без абстракций.
Konstantin
Konstantin
я думал jbod с кэшем то сделать
Konstantin
raid+bbu
Konstantin
блин, паника))
J
Konstantin
Почему?
чо делать, чо делать ))
J
А так время рейдов везде где можно прошло уже.
Сейчас так вижу что они годятся в основном для серверов БД или для зеркала\страйпа под какую-нибудь специфичную задачу.
Konstantin
А каждый osd ещё и ram поест+ журнал
J
Sergei
Sergei
ну вам виднее, чего у вас много, а чего мало.
Konstantin
Sergei
потребление памяти OSD зависит в первую очередь от количества PG на этих OSD, а не от количества самих OSD
Konstantin
Konstantin