Mark ☢️
MB1000GCWCV
Mark ☢️
220 IOPS при глубине 1
Mark ☢️
4...10 ms задержка
Mark ☢️
ураа!!! assertion failed в OSD
Mark ☢️
я таки смог
Mark ☢️
Короче. я специально забенчил все диски отдельно. и в совершенно одинаковых условиях забенчил блюстор и не-блюстор
Mark ☢️
и что же ви таки думаете ?
Александр
Разницы нет
Mark ☢️
правильно!
Mark ☢️
а где же то самое устранение двойной записи и весёлые румяные графики ?
Mark ☢️
@SinTeZoiD есть идеи почему так? (как проверить, что всё произведено правильно) ?
Mark ☢️
(сейчас написал мегаскрипт который передеплоивает весь кластер и запускает бенчмарк). Вот чтоб прямо ТОЧНО всё тоже самое только блюстор и не блюстор
Михаил
@SinTeZoiD есть идеи почему так? (как проверить, что всё произведено правильно) ?
Я не умею гадать по фотографии. Где методика тестирования? Где фио? Где описание дисков? Опять нет нихуя!
Mark ☢️
вот я как раз скрипт написа чтобы фио было
Mark ☢️
описание дисков:
Mark ☢️
(мне прям сюда пастить или куда?) @SinTeZoiD . есть конкретные скрипты где прям видно как именно бенчится
Mark ☢️
замеренные хар-ки дисков: http://pastebin.com/bqhzTxVx
Mark ☢️
бенчмаркерилка диска + создание ОСД после этого: http://pastebin.com/inwXNX4y
Mark ☢️
удалялка OSD http://pastebin.com/uPVtns3u
Mark ☢️
Полный скрипт проведения бенчмарка (ВНИМАНИЕ! обновлён!): http://pastebin.com/1Jp4Ae47
Mark ☢️
ceph.conf: http://pastebin.com/DguBneDJ
Mark ☢️
@SinTeZoiD я кончел
Михаил
Ну будет время посмотрю
Mark ☢️
спс
Mark ☢️
Полностью автоматизированный тест: с пулом размера три на 6 дисках в итоге я получаю 307 иопсов. НЕ БЛЮСТОР. Я считаю, что это более чем отличный результат, который подтверждает, что никакие иопсы там в цефе не теряются. Хотя и странно, ведь они говорили про двойную запись....
Mark ☢️
Mark ☢️
4 эксперимента по 4 измерения в каждом. первые два измерения — рандомная запись в один поток. вторые два — в 32 потока.
Михаил
Ты хочешь сказать, что мы на цефе с репликой не теряем иопс относительно чистого диска?
Mark ☢️
ну смотри
Михаил
Ну вообще из 6 дисков у тебя должно быть 400+ иопс
Mark ☢️
эт почему это
Михаил
Если сата диск в среднем 80 дает
Mark ☢️
сата диск у меня даёт намного больше
Mark ☢️
ну и изза того что размер пула 3 — получается один иопс из фио жрёт три ипса в железе (ну типа в идеале)
Mark ☢️
вот и получается, 150*6 (суммарно иопсов везде) делим на 3. ну вот и 300.
Mark ☢️
или я идиот?
Mark ☢️
https://github.com/ceph/ceph/pull/12555 - ЙА КРОСАФЧЕГ
Михаил
Во разошелся то
Михаил
7200 / 60 = 120
На хабре была статья
Михаил
Где приведены средние значения
Михаил
Ну и да, если у тебя один диск 120, а 6 307 то результат еще хуже)
Mark ☢️
Где приведены средние значения
да видел я её. с неё педивикию скопировали (или наоборот?)
Mark ☢️
Mark ☢️
вот ещё посвежее результы
Mark ☢️
ну и изза того что размер пула 3 — получается один иопс из фио жрёт три ипса в железе (ну типа в идеале)
Mark ☢️
вот и получается, 150*6 (суммарно иопсов везде) делим на 3. ну вот и 300.
Mark ☢️
и что, @SinTeZoiD , я не прав?
Mark ☢️
только давай без рифмы на 300
Mark ☢️
@erzent
Mark ☢️
вот как по делу — так никого сразу нет.
Михаил
и вообще странные у тебя вычисления. откуда логика, что 1к3 ?
Mark ☢️
Это в идеале, понятно. В виду журналов, 1 к 6 должно быть. В блюсторе должно быть также, но в мб/сек меньше. По измерениям иопсов -- не так
Denis
вывод фио какой то странный.
Denis
и опять же он усредненный, хочется ещё во времени видеть.
Denis
можно в гисты графички припихнуть, аля https://gist.github.com/pcheliniy/b3c5e86bb328c41c61d8373bcdda2f1b
Denis
имхо интересен тест полный всего устройства и смотрет ьпотом на clat pct а не на среднее =\
Александр
https://github.com/ceph/ceph/pull/12555 - ЙА КРОСАФЧЕГ
Ну норм... завтра в 8 дебиане поменяется и будешь ещё один пилить, что б изменили
Александр
не тролль) хорошее дело пушить в гит баг фиксы
Да это понятно, я вообще имел ввиду
Александр
Сегодня будут обсуждать бюджет на 2017..
Александр
Буду сидеть ждать
Александр
Минималку 4 "сервера"
Михаил
ну твой план с core i5 может и прокатит)
Александр
i7 😆
Михаил
однако всё равно мне кажется херовой идея размещать вм рядом с CEPH
Александр
Я тоже так думаю и сделаю плавующую вм
Sergey
проксмоксе же такое решение бюджетное предлагает
Александр
Мне 1 вм нужна постоянно рабочая
Sergey
и вм и сеф на одной ноде
Александр
А остальные будут на серверах
Александр
Ну ceph мне нужен именно как хранилка
タキ
Всем привет! вопрос по конфигу цефа: Если мне для разных osd хочется укзать разные параметры - могу ли я сделать такой конфиг? http://pastebin.com/fbD6ngGk
Михаил
journal = /dev/ssd1 а зачем?
Anonymous
кто-нибудь знает, что еще можно покрутить в Bluestore OSD на предмет потребления памяти?
タキ
сколько читал мануалы - почти везде натыкался на советы перенести журнал на ssd