
Roman
08.12.2016
18:14:30
На centos 6 ты с этим обломишься. Вероятно, на centos 7 тоже.

Psy
08.12.2016
18:17:28
Ну универсального ничего не бывает

Александр
08.12.2016
18:17:39

Марк ☢
08.12.2016
18:22:21

Google

Марк ☢
08.12.2016
18:23:12
тут посоветовали чуз леаф тайп
# cat /etc/ceph/ceph.conf
[global]
fsid = cb4b2313-45c8-40b6-8600-28ac29880741
mon_initial_members = node2
mon_host = 10.80.48.2
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
ceph_osd_crush_chooseleaf_type = 0
ну я сделал передеплойил вообще весь кластер
результат тот же

Тефтеля
08.12.2016
18:24:29
Ксения в наших сердцах

Марк ☢
08.12.2016
18:26:33
Я ДЕБИЛ. нашёл багу в конфиге.
в рот мне ноги
щас попробую исправить

Михаил
08.12.2016
18:27:27

Марк ☢
08.12.2016
18:27:46
нуу.. решил что самый тупой способ — поправить конфиг и перезапустить все демоны.
норм ?
там как-то странно написано в доке что перед деплойментом мол надо менять
а про то что можно ли после — ни слова

Google

Марк ☢
08.12.2016
18:30:58
ну сделал... хуй там плавал
жованный крот. и как дебажить вобще?
попробую передеплойить опять

Paul
08.12.2016
18:33:44
руби можно и не знать
питон тоже. Это как в стихотворении:
хорошо быть девочкой
в мамином пальто
можно и не девочкой
но уже не то

Михаил
08.12.2016
18:43:23

Vlad
08.12.2016
18:43:33

Марк ☢
08.12.2016
18:43:44
а то хрен его знает что он там куда запоминает. я пока не разобрался

Михаил
08.12.2016
18:45:22

Vlad
08.12.2016
18:45:39
нужно экспортировать crushmap в текстовый файл, поменять osd_crush_chooseleaf_type и записать обратно, ceph сам перебалансирует данные

Михаил
08.12.2016
18:45:50

Vlad
08.12.2016
18:45:58
ну если данных нет то конечно проще пересоздать

Марк ☢
08.12.2016
18:46:08
да, я наркоман нахрен. лучше подождать
в общем-то не больше 5 минут занимает передеплой
УРАААААААААААААААААААААААААААААААААААА
ПОПЕРДОЛИЛОСЬ!
но не поверил в свои силы :)
а кстати. "записать обратно" это как?

Google

Михаил
08.12.2016
18:48:24

Марк ☢
08.12.2016
18:48:27
там видел экспорт, декомпиляцию

Михаил
08.12.2016
18:48:45
Это обратно
Вроде бы

Марк ☢
08.12.2016
18:50:10
Где наебался то?
1. хз хули не работало
2. подсказали люди добрые что надо делать (привели кусок доки)
3. ёбся в срачку почему команда не работает
4. понял что это не команда сука а кусок конфига
5. поменял конфиг
6. ёбся хули он не применяется.
7. передеплоил
8. нашёл ебучую опечатку. хоть бы кто сказал что нет такой ебучей опции
9. передеплоил без опечатки.
10. попёрло.

Vlad
08.12.2016
18:50:19
можно ещё командой ceph osd crush отредактировать crushmap

Марк ☢
08.12.2016
18:50:29
о. а как ?

Михаил
08.12.2016
18:53:50
Твой ceph 3 чата ставило)

Марк ☢
08.12.2016
18:54:28
и не говори
мой цеф 3 чата шатало

Vlad
08.12.2016
18:56:04
я на память не помню, что-то типа такого
создаем правило
ceph osd crush rule create-simple host_replica default host
узнаем номер этого правила
ceph osd crush rule dump
и назначаем его пулу
ceph osd pool set mypool crush_ruleset 3
я пару лет назад ceph использовал, сейчас возможно что-то поменялось
я, например, это использовал для репликации между датацентрами
до появления этой команды приходилось компилировать crushmap

Марк ☢
08.12.2016
18:57:31
я даже понял
ceph status
cluster 79f68c45-7a42-4f9e-a0de-a5745bbb2aff
health HEALTH_OK
monmap e1: 1 mons at {node2=10.80.48.2:6789/0}
election epoch 3, quorum 0 node2
osdmap e28: 4 osds: 4 up, 4 in
flags sortbitwise
pgmap v97: 0 pgs, 0 pools, 0 bytes data, 0 objects
20614 MB used, 4138 GB / 4158 GB avail
внимание вопрос. кто жрёт 20 гигов?
ни одного пула нет

Vlad
08.12.2016
19:01:40
ceph osd tree что выводит?

Марк ☢
08.12.2016
19:03:46
# ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 4.06078 root default
-2 4.06078 host node2
0 0.87849 osd.0 up 1.00000 1.00000
1 0.90919 osd.1 up 1.00000 1.00000
2 0.90919 osd.2 up 1.00000 1.00000
3 1.36389 osd.3 up 1.00000 1.00000

Google

Михаил
08.12.2016
19:04:17

Vlad
08.12.2016
19:04:39

Марк ☢
08.12.2016
19:05:24
Господа Знатоки, кто будет отвечать ?

Михаил
08.12.2016
19:05:44
@pro_openstack напоминаю, что там знатоков по ceph больше

Марк ☢
08.12.2016
19:06:35
# ceph osd df
ID WEIGHT REWEIGHT SIZE USE AVAIL %USE VAR PGS
0 0.87849 1.00000 899G 5154M 894G 0.56 1.16 0
1 0.90919 1.00000 931G 5153M 926G 0.54 1.12 0
2 0.90919 1.00000 931G 5153M 926G 0.54 1.12 0
3 1.36389 1.00000 1396G 5153M 1391G 0.36 0.74 0
TOTAL 4158G 20614M 4138G 0.48
MIN/MAX VAR: 0.74/1.16 STDDEV: 0.08

Suika
08.12.2016
19:07:16
systemd крут

Марк ☢
08.12.2016
19:07:43
пжжи. тут цеф распидорасиваем

Михаил
08.12.2016
19:08:10

Марк ☢
08.12.2016
19:08:19
БЛЯТЬ я тупой

Suika
08.12.2016
19:08:19
вопрос второй, что лучше использовать для образа диска динамического размера? tar не предлагать

Марк ☢
08.12.2016
19:08:28
это журналы

Suika
08.12.2016
19:08:36
qcow2 пробовал уже, есть другие варианты?

Марк ☢
08.12.2016
19:08:40
просто я не знал что они в как-бы занимаемое пространство входят

Михаил
08.12.2016
19:09:51
Ну, теперь знаешь

Марк ☢
08.12.2016
19:10:24

Михаил
08.12.2016
19:11:07

Марк ☢
08.12.2016
19:11:52

Google

Suika
08.12.2016
19:13:36

Михаил
08.12.2016
19:15:50

Марк ☢
08.12.2016
19:16:23
когда в куему делаешь -snapshot то он на самом деле делает в /tmp qcow2-диск со ссылкой в качестве бекинг-стор на оригинал.
ну я и спрашиваю в расцылке — а если qed пижже то почему бы его не брать для этих целей ?
а мне отвечают — схуя это ты решил что он пижже ? а я говорю дак в вики вашей ебаной
а они говорят там говно устаревшее
типа раньше — да, а сейчас нет

Suika
08.12.2016
19:19:35
а какие критерии ?
четких критериев нет. цель чтобы в финальный стек вписалась ну да просто можно было смонтировать в хост-систему
посмотрел в сторону systemd-nspawn, он позволяет папку использовать в качестве корня
тогда достаточно просто монтировать иметь возможность
алсо умеет работать напрямую с qcow2
но почему-то требует btrfs
если я правильно понимаю

Марк ☢
08.12.2016
19:23:50
пиздец какойто

Suika
08.12.2016
19:23:52
а может и неправильно...
"работа с образами возможна только на базе файловой системы BTRFS, которую нужно примонтировать к директории /var/lib/machines"

Марк ☢
08.12.2016
19:24:18
у тебя по ходу всё перемешалось