Mark ☢️
Евгений
Alex
Молча. Бекап делается через borg, при необходимости монтируем нужный архив и обычным cp льём на cephfs или в любое другое место
Евгений
Mark ☢️
Ну да. Согласен. Пяка
Mark ☢️
Но можно выкрутиться подключив довекот к снапшоту и вытянув с него чо надопосредством имапного протокола
Mark ☢️
Т. Е. Перетаскиванием папочки мышкой
Mark ☢️
Сложнее да
Alex
Mark ☢️
Mark ☢️
В качестве архива ибо монтируется
Mark ☢️
И жмет не хило
Mark ☢️
Хм. Гляну
Alex
И жмет не хило
Мы особо не жмём - так как там дедупликация. С почтой вообще люто дедуплицирует
Mark ☢️
https://github.com/bup/bup
Mark ☢️
Вот такое встречал. Но не юзал
Alex
Первый проход был долгим, так как на бекапе тормознутый гластер, с мелкими файлами не алё у него. Но потом очень шустро. 310 гиг за 15-20 кладёт в архив
Alex
Alex
https://borgbackup.readthedocs.io/en/stable/
Alex
Я его юзаю в данном случае. А так все от задач
Alex
Когда уже кто-то запилит курс по ceph с pool mirror, cephfs, cache tiring, rgw для продакшена и как для этого всего сделать disaster recovery?
Mark ☢️
https://www.qct.io/solution/index/Storage-Virtualization/QxStor-Red-Hat-Ceph-Storage-Edition
Alex
Сейчас RH продвигает активно GlusterFS. Ceph у них имеет слабый приоритет. Сегодня был разговор с человеком из шапки
Anonymous
а гластер не разваливается? правда-правда? ;)
Anonymous
когда мы его юзали, там багов был вагон
Anonymous
но их активно чинят, да
Dmitry
Они и ансибл
Dmitry
Активно чинят
Dmitry
Еще активней ломают правда
Anonymous
да, вот ансибл это 5+
Anonymous
ломать core модули - наши все
Logan
в ансибл такое количество багов, что я не понимаю, что с ним делать вообще
то ли не пользоваться, то ли найти некий волшебный билд и пользоваться только им
Mark ☢️
Qcow2 на cephs - это пиздец ? Ну. Чтобы снапшоты виртуалок работали...
Mark ☢️
А то ебучий либвирт не умеет в снапшоты в rbd
kiosaku
proxmox?
Anonymous
Mark ☢️
Евгений
Mark ☢️
Евгений
Бенчил ?
Там только операционка, так что нет. Работает и работает.
Anonymous
Там был разговор про mds и inodes. если mds работают в ином режиме и в кластере (один демон mds + еще один mds на другом сервере) таже фигня? Например так: fsmap e52: 1/1/1 up {0=nx4=up:active}, 1 up:standby-replay. В конфе ceph.conf добавлено (mds standby replay = true). и да, centos 7, kraken, bluestore (все как вы любите)
Dmitry
А где билд dokan для вин взять? Не находу чтото собранный
Dmitry
Он вообще пилится? Что то давно новостей по нему не видел
Dmitry
Нахожу*
Mark ☢️
Anonymous
поживее filestore
Anonymous
тесты гарантируют
Anonymous
и не зажирает ядра и память под 100%
Anonymous
с очередями
Anonymous
у меня обычные sas-sata вперемешку
Anonymous
без ssd
Anonymous
так что разница ощутима
Anonymous
т.е. по логике, если сдох один, второй продолжит? или тоже подавится и свалится?
Anonymous
считаю что два лучше чем один. пока гоняю в своем проде, будем посмотреть как живут. перед эксплуатацией делал краштесты, просадка io была, но в целом переключался и работал дальше. спасибо за ответ
Alex
Mark ☢️
Mark ☢️
Возможно, я тупой, но я не могу понять пункт 5
Mark ☢️
слишком абстрактно
Anonymous
ядерные. кластер на centos 7, клиенты sles 12. через fuse пробовал на 11 но не фартануло, т.к. клиента никто не сделал. поэтому выдаю через nfs на старые
Anonymous
да, узкое горло, но с этим мирюсь
Alex
да, узкое горло, но с этим мирюсь
А можешь скинуть вывод команды ceph daemon mds.<name> perf dump mds
С активного и резервного. Хочу сравнить со своим хамеровским
Alex
Я его выше кидал
Anonymous
это на одной
Anonymous
щаз кину на пастебин
Anonymous
а то некрасиво наверно сюда
Anonymous
или можно?
Anonymous
https://pastebin.com/zMwfiAhn
Anonymous
https://pastebin.com/SHFGweuX
Mark ☢️
sudo mount -t ceph 10.80.20.99:6789:/ /qwe -o name=admin,secret=XXXXXXXXXXXXX
Mark ☢️
и всё зависло
Mark ☢️
команда маунт тоесть зависла
Mark ☢️
Я и ДИОД
Mark ☢️
забыл mds задеплойить