Anonymous
исошка RHSCON может у кого есть? )
Михаил
Михаил
Я подозреваю, что там не всё, но и то что есть мне понравилось
Radik
О, Ленар :)
Radik
Привет :)
Lenar
Привет!)
Dimonyga
Привет Уважаемое сообщество. Никто в продакшене не интегрировал самбу с цефом ? Нужен кейс, корпоративная хранилка с shadow copy. Человек на 15.
Евгений
Dimonyga
Кхм .... https://www.mankier.com/8/vfs_ceph
Dimonyga
Евгений
Агент + синхронизация ?
да. Плюс занятия с персоналом на тему того, что все версии ваших файликов вы можете выудить через веб-морду
Dimonyga
Dimonyga
Евгений
Dimonyga
Artem
Я никак не могу понять как данные реплицируются, вот есть у меня есть
osd.0
osd.1
osd.2
При реплике в 2, это означает, что на каждой osd есть какая то часть информации?
Artem
Просто будь osd.0 и osd.1 я бы сказал что они полностью дублируют друг друга, но нифига же не так?
Евгений
Евгений
то есть, данные пилятся на pg
pg по правилам crushmap рассовываются по osd
Artem
Зачем тогда объдиняют через crush несколько osd к одному хосту, проще же тогда все osd держать по одиночке
Евгений
Евгений
G72K
G72K
чтобы сначала писалось на тот, что по-быстрее :)
Grisha
Grisha
https://www.sebastien-han.fr/blog/2015/12/21/ceph-crush-rule-1-copy-ssd-and-1-copy-sata/
Grisha
http://docs.ceph.com/docs/master/rados/operations/crush-map/
Grisha
rule ssd-primary
Artem
Всем привет! Из такого состояния он сможет восстановить себя?
lth HEALTH_WARN
92 pgs backfill_wait
240 pgs degraded
1 pgs recovering
147 pgs recovery_wait
240 pgs stuck degraded
240 pgs stuck unclean
92 pgs stuck undersized
92 pgs undersized
4 requests are blocked > 32 sec
recovery 22350/63100 objects degraded (35.420%)
recovery 13161/63100 objects misplaced (20.857%)
recovery 1623/31550 unfound (5.144%)
Dimonyga
Artem
Таким образом его запускать - ceph osd lost 1?
Евгений
Artem
Ага, у меня сдох один из osd. Процесс рековери прошел, теперь так висит. Я что то не могу понять как восстановление запустить
Dimonyga
1 pgs recovering
Dimonyga
он рекаверится потихоньку. видимо лимит на рекавери задавали
Artem
Mikhail
а цифирки-то меняются? трафик есть?
Artem
Mikhail
может уперлось в веса осд или лимит по пг на осд, это так, что в голову пришло, но если процесс не идет - что-то не так
Artem
А нельзя его заставить рековериться в ручную?
Artem
cluster 31b2bbd4-8e1a-4031-a1eb-3d32d2ea4082
health HEALTH_WARN
92 pgs backfill_wait
240 pgs degraded
2 pgs recovering
146 pgs recovery_wait
240 pgs stuck degraded
240 pgs stuck unclean
92 pgs stuck undersized
92 pgs undersized
7 requests are blocked > 32 sec
recovery 22351/63102 objects degraded (35.420%)
recovery 13162/63102 objects misplaced (20.858%)
recovery 1623/31551 unfound (5.144%)
Artem
Стало 2 pgs recovering, видимо действительно лимиты
Mikhail
количество-то не изменилось, ничего не происходит
Mikhail
наверное где-то здесь надо искать http://docs.ceph.com/docs/master/rados/troubleshooting/troubleshooting-pg/
Mikhail
http://docs.ceph.com/docs/master/rados/troubleshooting/troubleshooting-pg/#unfound-objects
вот здесь про unfound
Artem
А нельзя как то в ручную заставить его recovery делать, хоть бы ошибку увидеть?
Anonymous
сколько дисков в кластере?
Anonymous
то что вывалилось заменить на живой. он (кластер) реплики сам сделает, правда если не урезана скорость, то клиенты будут негодовать
Artem
Было три, а должно было стать 4
Евгений
Artem
Все по 4тб, занято 128 гиг
Artem
У меня пока 1 клиент винда с 1с в опенстеке, она сдохла :(
Александр
винда в опенстеке
Александр
ммм.. красота. 😊
Anonymous
по моим прикидкам, лучше 10 дисков по терику чем 2 по 5ТБ. дело в том, если size 3, то он будет ругаться что ему еще одну реплику некуда класть
Anonymous
действительно, какой size?
Anonymous
ceph osd tree можно?
Artem
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 7.28000 root default
-2 3.64000 host osd01
0 3.64000 osd.0 up 1.00000 1.00000
-3 3.64000 host osd02
1 3.64000 osd.1 up 1.00000 1.00000
Anonymous
ceph osd pool get %you_pool_name% size
Artem
root@controller01:/home/fess# ceph osd pool get vms size
size: 2
Anonymous
диски взад добавили?
Artem
Вообще дело было так.
1. Я создал osd.2 на 4Тб. Не получилось нормально добавить журнал на него из ssd. Я его снес, удалил раздел.
2. Решил убрать его из ceph. ceph osd rm osd.3
Anonymous
удаление обычно так бывает
Евгений
Anonymous
ceph osd crush remove osd.<ID>
ceph auth del osd.<ID>
ceph osd rm <ID>
Anonymous
ну в мануале точно корректно
Евгений
ну в мануале точно корректно
Вот я и пишу, что согласно мануалу для удаления osd надо с бубном попрыгать, а АВТОР все свел к одной строке.
Anonymous
да и кластер из двух дисков как-то неубедительно. с тем же успехом raid-1 подошел бы
Евгений