
Марк ☢
06.11.2016
19:22:56
А если развалился то что
Имхо рэйды нужны когда тебе нужен в одном компе адски быстрый и отказоустойчивый блокдевайс.
С большими иопсами
Больше они низачем не нужны

Google

Старый
06.11.2016
19:23:55
я вот вообще не врубаюсь например, как 2 эникея будут через puppet управлять ceph на 9 машинах с 6 дисками в каждой

Марк ☢
06.11.2016
19:24:39
Эмм. Да хоть с 6 хоть с 2 рэйдами. Что принципиально другого ?

Старый
06.11.2016
19:24:41
я хотел gluster, можно было бы через ovirt жить спокойно, но местный дурачёк балтной решил ceph

Марк ☢
06.11.2016
19:24:55
Gluster пробовали
При базовых ситуациях с вылетом нодов и внезапным выдергиваним дисков на ходу (дада, я это делал) глустер вставал крабом

Pavel
06.11.2016
19:25:43

Старый
06.11.2016
19:26:16

Марк ☢
06.11.2016
19:26:44
Не правда. У нас тестировщик с такой зп вполне справляется. Правда на маленьком кластерке тестовом
Но за 30 и с глустером можно наворотить бед
Тут не в технологии дело

Старый
06.11.2016
19:27:27
у gluster есть gui в ovirt

Марк ☢
06.11.2016
19:27:42
Как говорит товарищ шнур, "если в башне поебень, то хоть ебень, хоть не ебень"

Google

Pavel
06.11.2016
19:27:50

Марк ☢
06.11.2016
19:28:45
Ну уж не знаю. Я как только не мучил цеф. Даже журнал ему корраптил

Pavel
06.11.2016
19:28:57
Попробуй данных залить

Марк ☢
06.11.2016
19:29:00
Не то что я цефодрочер, но он реально сцуко работает

Pavel
06.11.2016
19:29:33
Разница между утилизацией осд может доходить до 30%

Марк ☢
06.11.2016
19:29:34

Pavel
06.11.2016
19:30:01
Т.е. На одной 50% занято, на другой 80
А потом у тебя падает сервер
И вторая осд забивается >95%
И привет

Михаил
06.11.2016
19:31:30

Марк ☢
06.11.2016
19:32:06
О. Трезвый ?

Pavel
06.11.2016
19:32:28
Вот кстати с Мишей мы это ловили))

Марк ☢
06.11.2016
19:33:23

Михаил
06.11.2016
19:33:46
О. Трезвый ?
ясне хер. он меня видимо с шизоидом из другого чата попутал

Pavel
06.11.2016
19:34:37
Все операции всегда идут к активному осд в acting set
Остальные - реплики

Марк ☢
06.11.2016
19:39:22
Вспоминаем как пишет осд. Сначала в журнал - потом в реплики бросается данными. Верно ?
И тут пока он не успел разбросать по репликам, как раз из него уборщица выдирает пачкорд

Google

Марк ☢
06.11.2016
19:41:03
Действия кластера ?
Тоесть например виртуалке уже сазали что данный сектор в рбд успешно профсинкан…

Ильдар
06.11.2016
19:42:03
на то он и журнал, чтобы после аварии чекнуть незавершенные операции
что в вм будет это уже не скажу)

Марк ☢
06.11.2016
19:42:32
Эт понятно. Но его отсоединили. И он вобще сгорел.
@SinTeZoiD @alsvartr
Я просто не нашел в доке это …

Ильдар
06.11.2016
19:49:51
если журнал один и он сгорел? ну наверно уже никак, работать с тем что есть на дисках
писать в два журнала, синкать их

Марк ☢
06.11.2016
19:50:16
Ну как. У каждого осд свой журнал же

Pavel
06.11.2016
19:50:24
Если первая осд дохнет, то работа идет со следующими

Марк ☢
06.11.2016
19:50:34
Дак а там нет данных же
Еще

Pavel
06.11.2016
19:50:43
Ну значит всё

Марк ☢
06.11.2016
19:51:21
А как кластер понимает. Всё или не всё ?

Wild One
06.11.2016
19:51:33
вот, кстати
а можно ли как-то извне выдавать сингал на osd down?
если, например, задержка на драйве поднялась до космических значений

Pavel
06.11.2016
19:51:58

Марк ☢
06.11.2016
19:52:00
Stonith типа

Google

Pavel
06.11.2016
19:52:18
Проходит операция peering например

Марк ☢
06.11.2016
19:52:33

Wild One
06.11.2016
19:54:03
ну просто у меня были на тестах ситуации, когда дохлый драйв не выбивался из кластера подолгу и i/o тормозили

Марк ☢
06.11.2016
19:54:19
Недостаточно дохлый :)
Так вот. Серьезно. При вылете праймари осд что происходит ?
Или когда именно цеф рапортует об успешной записи ? После ответа что все реплики писнули в журнал ?

Wild One
06.11.2016
19:56:48
по-моему да

Марк ☢
06.11.2016
19:57:45
А точно как узнать ? Дока какаято неконкретная.

Старый
06.11.2016
20:00:58
задай это в ирс на канале #ceph

Марк ☢
06.11.2016
20:01:50
irc ? Оно ещё живо ?

Pavel
06.11.2016
20:02:43
В доках все это есть
Официальных

Марк ☢
06.11.2016
20:03:20
А можно ссылку на это место ?

Vladimir
06.11.2016
20:03:35
https://wiki.openstack.org/wiki/IRC

Andrey
06.11.2016
20:18:45
кстати про Ceph
2016-11-06 23:15:33.406422 7f8a8d111700 0 — 172.24.47.202:0/470645825 » 172.24.47.214:6800/32168 conn(0x7f8a740098e0 :-1 s=STATE_CONNECTING_WAIT_BANNER_AND_IDENTIFY pgs=0 cs=0 l=1)._process_connection connect claims to be 172.24.47.214:6800/18443 not 172.24.47.214:6800/32168 - wrong node!
ни у кого не было такого? что с ним не так?

Михаил
07.11.2016
17:01:28
Однако если вы думаете как мониторить свой CEPH кластер, то я советую посмотреть на prometheus и grafana. Достаточно симпатично и удобно.

[Anonymous]
07.11.2016
17:44:26
?

Марк ☢
07.11.2016
19:54:29
http://www.neboleem.net/images/stories1/lekarstva/cefazolin1.jpg

Google

Марк ☢
07.11.2016
19:54:29
Напомнило тут
Кто там с рэйдом под цеф был ? Теперь превед будет. Он там о_директ использует бай дефолт!!!

Михаил
07.11.2016
20:35:53

Марк ☢
07.11.2016
20:38:52
Кароч, срет например приложение в страницу. Едро начинает пейсать это на винты.
И в процессе пейсания, приложение (виртуалка тоесть, обычно) срет в страницу другой контент.
Ну а едро-то чо. Выставило адрес в памяти и дма процедуру начало
Причем процедуры параллельно в оба винта
Но ониже ясен пень немного с разной скоростью пишут
Да и вобще, мало ли когда шедулер начнет писать…
Вот и получаица, что на винты немного разные данные попадают
А вот при пейсании через пейдж кэш, тоесть по нормальному
Он там перед писнёй копионврайт ставит.
Сорри за стиль. Так просто по фану.

Sergey
07.11.2016
22:18:29
?

Danila
08.11.2016
09:23:01
Для начала по сефу, доки на сайте подойдут? Или есть более полные маны ?

Dmitry
08.11.2016
09:23:55
на хабре вот была офигеннская статья недавно

Ильдар
08.11.2016
09:24:08
http://onreader.mdl.ru/LearningCeph/content/index.html
я тут читал, не знаю на сколько актуальная информация там

Dmitry
08.11.2016
09:24:30
https://habrahabr.ru/post/313644/ #links #ceph #manuals