Mark ☢️
судя по разговорам в ИРЦ выясняется, что я не понимаю на самом деле что происходит при попытке вынуть диск
Mark ☢️
корректно всмысле
Mark ☢️
то есть, дело, как и предполагалось, не в количестве ОСД а в понимании как всё работает
Mark ☢️
таким образом, например, я выяснил, что по-вилимому, если пул размером 1, то вынимать осд нельзя.
Mark ☢️
https://www.sebastien-han.fr/blog/2015/12/11/ceph-properly-remove-an-osd/
Mark ☢️
капитан блеять
Mark ☢️
Ceph no longer provides documentation for operating on a single node, because you would never deploy a system designed for distributed computing on a single node.
Mark ☢️
вот он сука кусок доки
Mark ☢️
как сговорились блять
Mark ☢️
http://docs.ceph.com/docs/jewel/rados/troubleshooting/troubleshooting-pg/
Mark ☢️
вот тут написано:
Mark ☢️
POOL SIZE = 1:
Mark ☢️
you can force the first OSD to notice the placement groups it needs by running: ceph pg force_create_pg <pgid>
Mark ☢️
документированный костыль, чо
Mark ☢️
сейчас проверю на пуле размером 2
Михаил
ебать мой хуй
Михаил
кто-то всё таки нашёл доку
Михаил
и понял что делать не надо
Михаил
охуеть
Mark ☢️
понимаешь, есть большая разница между "вот так нельзя, верь мне, я точно знаю как правильно" и "В доке (в идеале, ссылка) написано, что так делать нельзя"
Viktor
но с докой все таки надо сначала ознакомится
Viktor
и только потом добавлять метод тыка
Mark ☢️
ну знаете.... дока большая.
Mark ☢️
таких тонкостей можно и не запомнить (что и произошло)
Mark ☢️
для новичка вроде меня не понятно, что важно в доке, а что нет
Михаил
Ты просто хуйню делаешь, поэтому налетаешь на такие косяки
Александр
Я вообще не понимаю как можно тестить кластерное ПО на 1 машине
Александр
Это всё равно что репликацию делать на 1 машине
Михаил
Тут пару месяцев назад был гентушник, который по религиозной причине не любил ceph deploy
Михаил
Михаил
Не лечился и сбежал
Roman
@socketpair я терпеливый, но вот даже я утомился отвечать.
Roman
Ну правда, в доках обычно все описано
Roman
Часто надо внимательно и вдумчиво читать
Александр
bcache
Под xfs? Или про zfs?
Roman
Под xfs? Или про zfs?
Ему пофиг что за фс сверху.
Roman
Я делал и zfs поверх bcache
Александр
С xfs сложнее чем с zfs
Александр
bcache поверх zfs
Александр
или zfs поверх bcache
Александр
😆
Polnoch
Б-ЖЕ, ну откуда вы?
ОК, а с oops что делать :)?
Mark ☢️
@socketpair я терпеливый, но вот даже я утомился отвечать.
Сорян. Бросайтесь ссылками в случае повторения. Настанет день и может и я вам пригожусь
Roman
ОК, а с oops что делать :)?
Версия ядра / spl ?
Polnoch
3.10.0-327.4.4.el7 spl-0.6.5.4-1.el7 Да, есть новее, но этот баг сразу после установки файлопомойки, с тех пор я на ней несколько раз апдейтила ядро и все, что относится к ZFS, он пересобирал zfs.ko через dkms, итд
Михаил
Заебали с zfs
Михаил
Btrfs и прочим говном к теме не относящиеся
✠ FLASh ✠
йо гайз, как вы думаете субъективно на сколько сильно упадет перформанс галера кластера если шифровать весь диск целиком?
✠ FLASh ✠
бля я обдолбался
✠ FLASh ✠
не на галере а шифрованные диски цеф кластера
✠ FLASh ✠
на сколько перформанс на них упадет
Anonymous
levаю процентов на 30
Anonymous
думаю*
✠ FLASh ✠
👍
Mark ☢️
али AES в процессоре есть — то не должно сильно тормозить
Roman
Mark ☢️
што не так
Anonymous
Mark ☢️
А я правильно понял, что если цефный монитор (единственный) помер вместе с компом и его жестаком, то пинцет всем данным в цефе ?
Mark ☢️
http://pastebin.com/8MFynu66
Mark ☢️
Я понял в чём проблема и знаю как исправить. Вопрос, как я должен был понять в чём она (без угадывания)?
Pavel
Если у тебя один Мон, то помер не цеф, а твоя компетенция
Mark ☢️
разумеется. я понимаю что должно быть более одного монитора
Mark ☢️
(ну щас начнётся....)
Pavel
Ну мы даже в тесте себе такого не позволяем просто
Михаил
Если у тебя один Мон, то помер не цеф, а твоя компетенция
Твоя очередь ржать и троллить. Мне надоело
Pavel
Если демон может умереть - он умрет
Mark ☢️
дак ктож спорит
Mark ☢️
у меня пока тестовый кластер
Mark ☢️
я там всякие ашамбех-пашамбе делаю
Александр