@pro_openstack

Страница 74 из 117
Михаил
19.12.2016
20:15:59
@SinTeZoiD есть идеи почему так? (как проверить, что всё произведено правильно) ?
Я не умею гадать по фотографии. Где методика тестирования? Где фио? Где описание дисков? Опять нет нихуя!

Марк ☢
19.12.2016
20:18:40
вот я как раз скрипт написа чтобы фио было

описание дисков:

(мне прям сюда пастить или куда?) @SinTeZoiD . есть конкретные скрипты где прям видно как именно бенчится

Google
Марк ☢
19.12.2016
20:22:28
замеренные хар-ки дисков: http://pastebin.com/bqhzTxVx

бенчмаркерилка диска + создание ОСД после этого: http://pastebin.com/inwXNX4y

удалялка OSD http://pastebin.com/uPVtns3u

Полный скрипт проведения бенчмарка (ВНИМАНИЕ! обновлён!): http://pastebin.com/1Jp4Ae47

ceph.conf: http://pastebin.com/DguBneDJ

@SinTeZoiD я кончел

Михаил
19.12.2016
20:28:40
Ну будет время посмотрю

Марк ☢
19.12.2016
20:28:44
спс

Полностью автоматизированный тест: с пулом размера три на 6 дисках в итоге я получаю 307 иопсов. НЕ БЛЮСТОР. Я считаю, что это более чем отличный результат, который подтверждает, что никакие иопсы там в цефе не теряются. Хотя и странно, ведь они говорили про двойную запись....

4 эксперимента по 4 измерения в каждом. первые два измерения — рандомная запись в один поток. вторые два — в 32 потока.

Михаил
19.12.2016
21:56:47
Ты хочешь сказать, что мы на цефе с репликой не теряем иопс относительно чистого диска?

Марк ☢
19.12.2016
21:57:23
ну смотри

Google
Михаил
19.12.2016
21:57:25
Ну вообще из 6 дисков у тебя должно быть 400+ иопс

Марк ☢
19.12.2016
21:57:30
эт почему это

Михаил
19.12.2016
21:57:38
Если сата диск в среднем 80 дает

Марк ☢
19.12.2016
21:57:48
сата диск у меня даёт намного больше

ну и изза того что размер пула 3 — получается один иопс из фио жрёт три ипса в железе (ну типа в идеале)

вот и получается, 150*6 (суммарно иопсов везде) делим на 3. ну вот и 300.

или я идиот?

https://github.com/ceph/ceph/pull/12555 - ЙА КРОСАФЧЕГ

Михаил
19.12.2016
22:01:11
Во разошелся то

7200 / 60 = 120
На хабре была статья

Где приведены средние значения

Ну и да, если у тебя один диск 120, а 6 307 то результат еще хуже)

Марк ☢
19.12.2016
22:02:20
Где приведены средние значения
да видел я её. с неё педивикию скопировали (или наоборот?)

вот ещё посвежее результы

ну и изза того что размер пула 3 — получается один иопс из фио жрёт три ипса в железе (ну типа в идеале)

вот и получается, 150*6 (суммарно иопсов везде) делим на 3. ну вот и 300.

и что, @SinTeZoiD , я не прав?

только давай без рифмы на 300

Google
Марк ☢
19.12.2016
22:16:47
@erzent

вот как по делу — так никого сразу нет.

Михаил
19.12.2016
23:05:38
и вообще странные у тебя вычисления. откуда логика, что 1к3 ?

Марк ☢
20.12.2016
05:17:49
Это в идеале, понятно. В виду журналов, 1 к 6 должно быть. В блюсторе должно быть также, но в мб/сек меньше. По измерениям иопсов -- не так

ptchol
20.12.2016
06:53:28
вывод фио какой то странный.

и опять же он усредненный, хочется ещё во времени видеть.

можно в гисты графички припихнуть, аля https://gist.github.com/pcheliniy/b3c5e86bb328c41c61d8373bcdda2f1b

имхо интересен тест полный всего устройства и смотрет ьпотом на clat pct а не на среднее =\

Александр
20.12.2016
08:57:37
https://github.com/ceph/ceph/pull/12555 - ЙА КРОСАФЧЕГ
Ну норм... завтра в 8 дебиане поменяется и будешь ещё один пилить, что б изменили

Михаил
20.12.2016
08:58:44
Александр
20.12.2016
08:59:07
не тролль) хорошее дело пушить в гит баг фиксы
Да это понятно, я вообще имел ввиду

Сегодня будут обсуждать бюджет на 2017..

Буду сидеть ждать

Минималку 4 "сервера"

Михаил
20.12.2016
09:01:01
ну твой план с core i5 может и прокатит)

Александр
20.12.2016
09:01:11
i7 ?

Михаил
20.12.2016
09:01:29
однако всё равно мне кажется херовой идея размещать вм рядом с CEPH

Александр
20.12.2016
09:01:50
Я тоже так думаю и сделаю плавующую вм

Google
Sergey
20.12.2016
09:02:11
проксмоксе же такое решение бюджетное предлагает

Александр
20.12.2016
09:02:14
Мне 1 вм нужна постоянно рабочая

Sergey
20.12.2016
09:02:15
и вм и сеф на одной ноде

Александр
20.12.2016
09:02:25
А остальные будут на серверах

Ну ceph мне нужен именно как хранилка

Taki
20.12.2016
11:20:51
Всем привет! вопрос по конфигу цефа: Если мне для разных osd хочется укзать разные параметры - могу ли я сделать такой конфиг? http://pastebin.com/fbD6ngGk

Михаил
20.12.2016
11:33:06
journal = /dev/ssd1 а зачем?

Wild One
20.12.2016
11:35:40
кто-нибудь знает, что еще можно покрутить в Bluestore OSD на предмет потребления памяти?

Taki
20.12.2016
11:45:37
сколько читал мануалы - почти везде натыкался на советы перенести журнал на ssd

Михаил
20.12.2016
11:47:20
Roman
20.12.2016
11:47:56
я задам глупый вопрос: а в ceph в журнал пишутся данные?

Wild One
20.12.2016
11:57:24
да, с filestore же

Taki
20.12.2016
12:18:24
Я до создания в конфиг прописываю путь до журнала. При указании журнала во время создания осд через деплой - получается какая-то дичь

Александр
20.12.2016
12:59:48
Буду сидеть ждать
О да, теперь присоденюсь к ceph в проде...

Михаил
20.12.2016
13:00:03
Александр
20.12.2016
13:00:22
Да, сейчас по кол-во опредлятся, 4 или 6 или 9

?

Михаил
20.12.2016
16:16:52
https://indico.cern.ch/event/542464/contributions/2202311/attachments/1291014/1922810/20160614_ceph_day_cern.pdf

Александр
20.12.2016
16:17:56
Будет что в метро почитать

Михаил
20.12.2016
16:18:09
ну это так, будущее судя по всему

Google
Марк ☢
20.12.2016
16:19:35
Александр
20.12.2016
17:16:18
Бюджет на 4 машины подтвердили, интересно когда закупки ((

Марк ☢
20.12.2016
17:38:31
https://www.mankier.com/8/vfs_ceph

Я наркоман и попробую в проде

Backend ( Calamari Server ) — the Calamari backend is written in Python 2.6+, using Saltstack, ZeroRPC, gevent, Django, django-rest-framework, graphite and instantiates a new REST API for integration with other systems.

ко-ко-ко-ко-КОМБО

и да, я пытаюсь

Calamari Server side components include : Apache, salt-master , supervisord , cthulhu , carbon-cache Calamari Client side components include : salt-minion , diamond

ктулху

фхтагн

Xeniya MTS
21.12.2016
05:38:12
Я наркоман и попробую в проде
Уже 12 часов пробуешь :)?

AnswerX
21.12.2016
06:42:02
доброе утро! кто может подсказать по резкому как забить ceph кластер на 60% и проверить что он действительно забился?

Марк ☢
21.12.2016
06:42:46
доброе утро! кто может подсказать по резкому как забить ceph кластер на 60% и проверить что он действительно забился?
создать rbd-образ большой и срать в него fio линейной записью в несколько смычков

AnswerX
21.12.2016
06:44:02
а как проверить что он действительно забился?

Страница 74 из 117