Dmitry
Выбор версии влияет на утилиты, которые будет пользовать сеф-деплой. Надо выбрать схожий дистр, и представиться им на время установки. Только на админской ноде
Dmitry
Ну или пересобрать сеф-деплой, да :)
Alexandr
или тебя тут все достали
Михаил
кавычки
J
go on)
VVSina
у меня на генте не работает цеф-деплой. так как ему нужны тулзы специфичные для рхела. Но если не надо +100500 нод то и руками отлично.
VVSina
Заодно и разобрался что к чему.
VVSina
А установка по принципу далее->далее->готово. приводит к тому что человек устанавливающий софт, не может оперативно выяснить и устранить проблему при её возникновении.
Mark ☢️
J
Што
Расскажи как плохо на дебиане цеф работает)
Yuf
Кто-то запускал ceph на других дистрах
Yuf
?
Yuf
Arch, gentoo
Yuf
Etc
Mark ☢️
Теоретически заработает даж в убунте которая в винде
Mark ☢️
Было б время я б прикололся
Евгений
только если там есть aio
Mark ☢️
Либси его эмулирует для неблокдевайсов же. Через тхреады
Mark ☢️
А где цеф использует аио ?
Mark ☢️
Там же шь прост файлы. Не ?
Евгений
когда я пробовал его собрать под цигвин, он меня послал именно из-за отсутствия аио
Mark ☢️
Чот падазритильна
Yuf
Да
Yuf
Коли примеров с гентоо и арчи
Yuf
Как я понял не кто их в прродакшинах не держит
VVSina
Я держу.
Dmitry
OpenSuSE
Anonymous
Господа, мануал по блюстору на http://docs.ceph.com отсутствует как класс? или quicksearch у меня не той системы?... хотел почитать про опции, которые можно подкинуть в ceph.conf, да что-то пошло не так...
Anonymous
т.е. вебверсии нет?
Mark ☢️
Почемуж . На гитхабе
J
Господа, мануал по блюстору на http://docs.ceph.com отсутствует как класс? или quicksearch у меня не той системы?... хотел почитать про опции, которые можно подкинуть в ceph.conf, да что-то пошло не так...
Документации нету как таковой даже в репозитории на гитхабе, вроде как. Опции для блюстора можно посмотреть вот тут, примерно с 1070 строки. https://github.com/ceph/ceph/blob/master/src/common/config_opts.h
Yuf
и как работает ?
Yuf
хотя вроде бы дебиан стабильный
Anonymous
весь сыр-бор из-за опции bluestore cache size . в вебмануале бывают комменты с матаном по поводу вариаций в ту или иную сторону
Михаил
[osd] bluestore cache size = 52428800 (512 М), ну или гиг
Михаил
вот те)
Михаил
от цефоводов)
J
Интересно было б посмотреть тесты и рассуждения, да. Кто-нибудь может пояснить, ребята? Bluestore, по идее, использует же page кэш ядра, ровно ка и filestore. Отдельный параметр для чего, ограничить выделение памяти? Или все вообще не так?)
J
О директ. Поэтому кеш свой собственный. Емнип
Ну вообще да. И вот тут чот такое написано. https://www.spinics.net/lists/ceph-devel/msg30506.html
J
А чот я ебло утиное) Про это есть в презенташке от 2016 года)
Anonymous
[osd] bluestore cache size = 52428800 (512 М), ну или гиг
начинать с гига и уменьшать или с 512 и увеличивать?
J
начинать с гига и уменьшать или с 512 и увеличивать?
Ну, стандартные значения - гигабайт для HDD и три гигабайта на SSD. А вот по каким критериям принимать решение об изменении значения - это фиг знает.
Mark ☢️
А чот я ебло утиное) Про это есть в презенташке от 2016 года)
Ебло утиное. надо запомнить. почти как жованный крот
Александр
Anonymous
это скорее вопрос к @wildylion
52428800 - это 50 х 1024 х 1024. Может имеете ввиду 50 МБ?
Anonymous
Парни, еще раз всем привет. А есть ли формула подсчета правильного значения PG && PGP на SATA диск?
Anonymous
http://docs.ceph.com/docs/master/rados/operations/placement-groups/#preselection Т.е. это самые оптимальные значения, я правильно понимаю?
Alexander
http://ceph.com/pgcalc/
Dauren
[blk1-012][ERROR ] RuntimeError: command returned non-zero exit status: 1 [ceph_deploy.osd][ERROR ] Failed to execute command: /usr/sbin/ceph-disk -v prepare —cluster ceph —fs-type xfs — /dev/sdg [ceph_deploy][ERROR ] GenericError: Failed to create 3 OSDs
Dauren
это ошибка при создании osd
Dauren
ceph version ceph version 10.2.7
Anonymous
толи уже созданы, то ли со второго раза прокатит
Dauren
ceph status cluster 2f422094-67c0-4873-a12a-fc04d94500b4 health HEALTH_ERR 64 pgs are stuck inactive for more than 300 seconds 64 pgs stuck inactive 64 pgs stuck unclean no osds monmap e1: 3 mons at {blk1-012=172.25.0.82:6789/0,blk1-051=172.25.0.87:6789/0,blk2-032=172.25.0.95:6789/0} election epoch 10, quorum 0,1,2 ast1-blk1-012,ast1-blk1-051,ast1-blk2-032 osdmap e1: 0 osds: 0 up, 0 in flags sortbitwise,require_jewel_osds pgmap v2: 64 pgs, 1 pools, 0 bytes data, 0 objects 0 kB used, 0 kB / 0 kB avail 64 creating
Dauren
статус в ощибке
Anonymous
no osds
Anonymous
попытка еще раз добавить к чему приводит?
Anonymous
добавление дисков по мануалу?
Anonymous
ceph-deploy не прокатывает?
Anonymous
занулить потом заново добавить катит?
Anonymous
судо на юзера прописаны?
Dauren
sudo прописаны
Dauren
пробовал зановка osd - disk zap, prepare , create
Dauren
тоже самое no osd
Anonymous
после create банально ноды в ребут отправлялись?... но иногда бывает клинит
Dauren
osd create проходит без ошибки [ceph_deploy.osd][DEBUG ] Host blk1-051 is now ready for osd use.
Dauren
да все ноды перезапускал
Anonymous
ceph-deploy osd activate
Anonymous
может сие прокатит
Anonymous
ну так
Anonymous
ну как?
Dauren
activate уходит в ошибку [blk1-051][ERROR ] RuntimeError: command returned non-zero exit status: 1 [ceph_deploy][ERROR ] RuntimeError: Failed to execute command: /usr/sbin/ceph-disk -v activate —mark-init systemd —mount /dev/sda1
Anonymous
на sles & jewel постоянно криво диски запускали. потому и ушел в kraken