Mark ☢️
Это то тут при чем
Mark ☢️
http://www.samsung.com/semiconductor/minisite/ssd/product/consumer/850pro.html
Mark ☢️
офецеальная спека
Mark ☢️
от слова fece
Mark ☢️
ладно. я закончил тему с гнусмасом
Sergei
в очередной раз убеждаюсь, что значительную часть опенстека пишут школьники.
https://github.com/openstack/swift-bench - якобы для тестирования производительности swift'а.
на самом деле она тестирует производительность питона на локальной машине.
кому в голову пришло тестировать производительность стораджей на питоне - ума не приложу.
Anonymous
Roman
Polnoch
Sergei
ну я и говорю - школьники.
Roman
Sergei
хм, ради чего? там тест примитивный, за полчаса на го написал маленький аналог
Polnoch
Mark ☢️
Sergei
Sergei
Пошаришь?
Мм, в порядок приведу и пошарю.
Mark ☢️
Народ
Mark ☢️
а можно вкратце про опеннебулу
Mark ☢️
у них сайт такой ёбнутый
Mark ☢️
хуй че проссышь
Sergei
@SinTeZoiD , если не секрет, вы чем телеметрию (иопсы, задержки, блаблабла) с кластера собираете?
Roman
http://netdevconf.org/1.2/slides/oct5/10_East_West_Performance.pdf
Pavel
Pavel
плюс еще Prometheus тыкали
Sergei
а у вас rbd only же?
Pavel
да
Sergei
мм, у вас не было такого, что потребитель долбит какой-то один объект (чанк в случае рбд) с неистовой силой на запись так, что при этом вся osd страдает?
Pavel
нет, я такого не замечал. Обычно довольно плавно по osd нагрузка распределена, за исключением каких-то кейсов типа ребилда или удаления большого снапшота
Pavel
иногда проскакивают slow requests, но по нескольким osd, когда нагрузка высокая или опять же какая-нибудь фоновая задача идет
Pavel
попробуй прометеус, там готовые метрики и интеграция с графаной
Александр
А большие нагрузки у вас вообще?
Pavel
удобно смотреть разные задержки как раз
Pavel
Pavel
днем в среднем 4-5 Kiops где-то
Pavel
рабочая нагрузка
Александр
Это не пики, я так понимаю. а стабильная нагрузка.
Pavel
ага
Александр
В пиках до 13-14?
Sergei
Pavel
пики до 10-13 где-то
Pavel
Sergei
https://github.com/influxdata/telegraf
Sergei
https://github.com/influxdata/telegraf/tree/master/plugins/inputs/ceph - плагин для ceph
Михаил
Roman
Sergei
гы, а прометеевский похоже через rados работает
Михаил
Михаил
Там на go exporter написан
Sergei
мы ж про https://github.com/digitalocean/ceph_exporter
Sergei
?
Михаил
Да
Sergei
угу
Михаил
Я его вертел
Sergei
можно телеграф попатчить наверное
Mark ☢️
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2015-September/004194.html
Mark ☢️
We also just started having our 850 Pros die one after the other after
about 9 months of service. 3 down, 11 to go... No warning at all, the drive
is fine, and then it's not even visible to the machine. According to the
stats in hdparm and the calcs I did they should have had years of life
left, so it seems that ceph journals definitely do something they do not
like, which is not reflected in their stats.
Roman
https://wiki.fd.io/view/VPP_Sandbox/turbotap
Roman
Михаил
Roman
MogileFS
То была скорее шутка про название. Но да, хз зачем оно надо
Roman
@spuzirev ты сегодня про свой сетап ceph рассказывал. А что у тебя за сеть?
Roman
И те кто ceph гоняет, что у вас за сеть?
Sergei
Sergei
Но это легаси.
Sergei
мы планировали расти там.
будет, скорее всего, 10g на хост, 400g (или 240g) на стойку, spine-leaf, leaf - 48x10G+4x100G (или 48x10G+6x40G), spine - 32x100G (или 32х40G)., первая итерация роста - до 80 хостов мб. сеть немного оверкилл, но с заложенным потенциалом для роста.
Roman
Roman
и есть какие-то цифры в плане скорости такой конструкции?
Sergei
Щас основное использование - rgw, расширение будет для rbd.
Sergei
В целом клос сети - ок, но есть нюансы.
Sergei
2Т диски, 8hdd+2ssd для журналов на каждой ноде. Диск содержит один раздел, xfs.
Max
у нас 4T hdd и чото боль при скрабе возникает порой
Max
видимо, пора тоже думать в сторону ssd под osd