kiosaku
так что только с диском засада :(
kiosaku
когда всё закончу, отпишусь на форуме проксмокса, как оно прошло :)
Михаил
ты 12ую версию там уже теребонькаешь?
kiosaku
ceph поверх физических дисков
kiosaku
э?
Михаил
да что ж такое)
Михаил
версия цеф какая?
kiosaku
hammer
kiosaku
weight 3.640
kiosaku
значение от размера диска не зависит же?
Михаил
значение от размера диска не зависит же?
коррелирует, но не совпадает
kiosaku
ладно, потом, когда через pve создам - поправлю
kiosaku
в root {} вес хоста = сумме весов дисков, так?
kiosaku
вобщем, не появляется диск в crushmap-е при создании :(
kiosaku
ну да
kiosaku
видимо, бага в проксмоксе
kiosaku
ceph osd crush add {id-or-name} {weight} [{bucket-type}={bucket-name} ...]
kiosaku
а где мне тут хост указать?
kiosaku
bucket-name=hostXX ?
kiosaku
отбой - host=hostname
kiosaku
так, а теперь самое интересное. proxmox показывает latency apply в 300-400ms на ssd
kiosaku
хотя iostat показывает по нулям
J
А что с этим не так?
kiosaku
ну как бы нагрузки нет, а 200мс показывает. откуда?
kiosaku
там нули должны быть
J
Почему нули? Apply latency это же время за которое данные записываются в filestore через syncfs.
J
Это бесполезная метрика, так то. Ну в смысле для понимания производительности именно OSD. Тут больше вопросов к VFS и самой файловой системе, мне кажется)
Михаил
Для общего понимания производительности диска нормально
kiosaku
т.е. на нагруженном диске оно 1-3 ms
kiosaku
а на не нагруженном - 200-400мс
kiosaku
и это нормально???
kiosaku
кстати, а можно как-нибудь переименовать osd.xx в osd.yy ?
kiosaku
а то подвисло и при создании диска один номер пропустило
Михаил
а на не нагруженном - 200-400мс
Там точно мс, а не пико какие нибудь?
kiosaku
увы
Михаил
Только если сетап по новой удалив файлы из /var/lib/ceph/osd/osd_$num
kiosaku
не, это не прокатило
kiosaku
а вот добавление диска в crush map и удаление его оттуда - прокатило :)
J
и это нормально???
А вот чо давай. Как время будет, возьми прям с админ сокета данные о производительности. Прям все метрики что можно. Может чо и найдем там.
kiosaku
доберусь - попробую
Konstantin
есть кто трезвый? ) подскажите кто тестил\знает - пилить по одному osd поверх аппаратного raid10 или 4 osd через JBOD? SATA диски
Igor
Ответили же в openstack)
Konstantin
Ответили же в openstack)
да, канал другой, может тут и мнение другое) я на всякий случай
Konstantin
Дрянная идея, в общем то, делать что-то кроме jbod. Цеф сам разрулит репликацию.
да, я хотел кеш заюзать, но не знаю есть ли профит или нет
Konstantin
спасибо, буду jbod тестить
J
спасибо, буду jbod тестить
Лучше всего вообще IT Режим, мне кажется.
Konstantin
что такое IT? 0_o
Sergei
J
Instant Target
initiator target вроде)
Sergei
точно.
Sergei
(наркоман)
J
Ну не суть. Режим когда диски в системе видны напрямую, рейд контроллер работает как sata\sas контроллер, без абстракций.
Konstantin
я думал jbod с кэшем то сделать
Konstantin
raid+bbu
J
т.е. вообще отказаться от writeback\readahead?
Ну я б не пользовался без нужды. В тестах что смотрел с год назад там порой непредсказуемые результаты выходили.
Konstantin
блин, паника))
Konstantin
Почему?
чо делать, чо делать ))
J
чо делать, чо делать ))
Ну как всегда ж) Надо исходить из того чего хочется.
Konstantin
Ну как всегда ж) Надо исходить из того чего хочется.
ну тут нужно себя перестроить, как-то привык уже к RAID10 с включенным кэшшем, даже без bbu и ибп есть ноды и ничего не случалось
J
ну тут нужно себя перестроить, как-то привык уже к RAID10 с включенным кэшшем, даже без bbu и ибп есть ноды и ничего не случалось
Так дело и не в потере данных, а в том что RAID контроллер добавляет еще один уровень абстракции. Сложнее анализировать производительность, сложнее отлавливать проблемы с дисками. Ну и, к тому же, удобно когда взял диск, воткнул в другой сервер и OSD запускаешь уже на нем Типа в случае чего всегда можно OSD между хостами перемещать.
J
А так время рейдов везде где можно прошло уже. Сейчас так вижу что они годятся в основном для серверов БД или для зеркала\страйпа под какую-нибудь специфичную задачу.
Konstantin
А каждый osd ещё и ram поест+ журнал
Sergei
А каждый osd ещё и ram поест+ журнал
а так вы потратите больше дисков.
Konstantin
а так вы потратите больше дисков.
Вопрос с тратой места немного в другую сторону же
Sergei
ну вам виднее, чего у вас много, а чего мало.
Konstantin
Ну и что?)
Я хз, анализирую)
Konstantin
ну вам виднее, чего у вас много, а чего мало.
Чо мне все выкают? Я не такой старый))
Sergei
потребление памяти OSD зависит в первую очередь от количества PG на этих OSD, а не от количества самих OSD
Sergei
Чо мне все выкают? Я не такой старый))
(ссылка на шутку про "ты конина блядская")
J
Вопрос с тратой места немного в другую сторону же
Так не, вопрос делать рейд или нет вообще не стоит. Не делать ни в коем случае. Ceph сам справится и с репликацией и с балансировкой нагрузки.