
terry
11.10.2018
11:35:43

Eduard
11.10.2018
11:38:07
Элита, куда нам ? Шутка.

Дима
11.10.2018
15:08:25

Ruslan
11.10.2018
15:09:28

Google

Дима
11.10.2018
15:11:24
у нас года два уже живет


Eduard
11.10.2018
15:14:04
Я вот сейчас пишу доки по нему. Читаю столько всего. Скажу одно - большой кластер - бекапы, бекапы и еще раз бекапы. Это раз. Автоматизация фулдеплоев ансиблом, но случай тотальных падений.
Многие большие корпорации работают с Ceph с репликами больше 3.
Бекапы тоже можно с цефа в цеф лить.
Можно держать два кластера с Ceph и виртуализацией поверх и отказоусточивость виртуалок строить на HAProxy, pacemaker и т.д.
Чем больше инфраструктура, тем выше должна быть безопасность.
Чем больше у вас автоматизировано процессов, тем проще пережить падения.
Панацеи от этого всего нет.
Я, например, везде, где работал, всегда требовал от админов, выкатывать сервера только с помощью ansible. Тоесть к каждому серверу есть набор ролей под каждый его сервис для его поднятия, настройки и конфигурирования + backup/restore. При падении насмерть, с чистой системы запуском одного плейбука поднимается новый сервер до продуктива и берет оперативные данные из бекапа. Без вмешательства руками в настройки.
Сразу снимается вопрос, что делать, когда человек, который настраивал тот или другой сервер в отпуске.
Как - то так.
Извините за много буков :)
CMS должен быть не вспомогательным инструментом, а одним из основных.

Google

Andrey
11.10.2018
16:24:35
народ, а если metadata в lvmthin кончилась, что можно сделать?

Dan
11.10.2018
16:25:50

Andrey
11.10.2018
16:26:54
lvextend --poolmetadatasize +2G vg0/lv0
Так не получатся.
lvextend --poolmetadatasize +100M pve-hdd/data
WARNING: Sum of all thin volume sizes (4.85 TiB) exceeds the size of thin pools and the size of whole volume group (3.64 TiB)!
For thin pool auto extension activation/thin_pool_autoextend_threshold should be below 100.
Size of logical volume pve-hdd/data_tmeta changed from 1.00 GiB (257 extents) to 1.10 GiB (282 extents).
device-mapper: message ioctl on (253:4) failed: Operation not supported
Failed to process thin pool message "delete 141".
Failed to lock logical volume pve-hdd/vm-114-disk-1.
Internal error: Performing unsafe table load while 1 device(s) are known to be suspended: (253:2)

Dan
11.10.2018
16:27:55
Performing unsafe table load while 1 device(s) are known to be suspended: (253:2) похоже там немного другие траблы

Andrey
11.10.2018
16:29:23

Dan
11.10.2018
16:29:54
может быть. я хз что там прокс делает

Eduard
11.10.2018
16:52:04
Набросал краткие инструкции под контейнера для oVirt + Ceph RBD. Пока очень краткие. Посмотрите ?
https://github.com/lantaris/Docker-cinder-12/blob/master/README.md
https://github.com/lantaris/Docker-cinder-13/blob/master/README.md
Если конечно у кого - то время есть.
Блин, разгильдяйство. Попросили знакомые два контейнера под мимик и люминус. Собрал, отдал. Попросил поднять не внутри енжина а на отдельной виртуалке. Померять скорость, сколько памяти съест. Как по стабильности.... Единственно что добился сегодня от них - "Нормуль уже в продакте". Распиздяйство просто. Ни тестов нифига... Ну как так ?
Людям толи пофигу все... Толи хрен его знает...

Alex
11.10.2018
17:10:54

Eduard
11.10.2018
17:11:25
Даже не откатали.
Блин, у меня к живому железу доступа нет. Мне даже самому его нормально проверить не на чем. На них была надежда.

rus
11.10.2018
19:27:33

Terminator
11.10.2018
19:47:38
Мишаня будет жить. Поприветствуем!

Алексей
11.10.2018
20:59:30
народ привет
кто юзает huawei сервера?

Hackru
11.10.2018
21:06:54
поиск по чату не работает?

Jan
11.10.2018
23:13:26

Ruslan
12.10.2018
06:08:13

Google

Ruslan
12.10.2018
06:12:36

Eduard
12.10.2018
06:14:49
Это краткая. Полную закончу, выложу.
Только пусть разворачивает на отдельной виртуалке, не внутри энжина пока на первом этапе. Хочу просто знать, сколько оно памяти скушает.
И стабильность, естественно проверить, если можно.

Ruslan
12.10.2018
06:20:13
ну дома-то у меня не будет особо много всего.... я сперва дома все смотрю-обкатываю, потом беру на работе старье-какое-то и на нем катаю, и только потом уже переношу или нет на более-менее рабочие среды.

Eduard
12.10.2018
06:20:42
Ok

Ruslan
12.10.2018
06:21:17
Конфиг овирта, который сейчас у меня,я поднимал как тестовый контур, но .... как это часто бывает, надо то и срочно, у тебя есть где, давай сделаем .... в результате необкатанная вещь в проде .... ну почти в проде.
Вот и выгребаем всякое. Спасает то что на каждом совещании кричу что это тестовая среда, дайте денег на прод

Eduard
12.10.2018
06:23:57
Лучше тестовые полигоны все - таки иметь под рукой.

Ruslan
12.10.2018
06:24:57
Ага.... согласен, но .... почему-то доказать руководству что нужно выложить хотяб лям на тестовый полигон - практически невозможно.....
Эдуард, не подскажешь, как бы мне удалить ошметки хостеденжин с нод ?

Eduard
12.10.2018
06:31:04
У меня тоже такая - же бойня была. Но тестовый полигон из мусора все таки собрали. А продуктив косой и кривой. Только задачи раздаются, а что нужно железо, которое очень критично для работы продакта, всем просто по барабану.

Ruslan
12.10.2018
06:32:07
смотри, я сейчас пытаюсь привести все ноды к общему знаменателю по версиям.
вот 3-я:
сори 2-я
Но на ней не горит значок коробки
А на ноде 2 - горит
и на ноде 3 горит, я ее сейчас отправил апгрейдится.
Почему ?

Google

Eduard
12.10.2018
06:36:35
В интерфейсе в меню выбери Check for updates на этой ноде
Обновлял видимо через yum. Энжин просто об этом пока не в курсе.
Ns ovirt-node разворачивал ?

Ruslan
12.10.2018
06:37:55
ovirt-ng-node с дистриба что предлагает сам овирт

Eduard
12.10.2018
06:37:58
Только обязательно паузы после ребутов делай и проверяй heal гластера.

Ruslan
12.10.2018
06:38:39
Паузы между выводом ноды из майнтенансе ?

Eduard
12.10.2018
06:39:02
Иначе зафризиш какой - то том гластера из за того, что реплика отсинхронизироваться не успела.
Том живой, пока кворум есть. Тоесть, в твоем случае две синхронные реплики из трех.

Ruslan
12.10.2018
06:39:50

Eduard
12.10.2018
06:40:09
Перегрузиш один хост и за ним сразу второй. Получиш две оставшиеся реблики, которые не синхронны, будет блокировка.

Ruslan
12.10.2018
06:40:40
блин, почему не одинаковые версии на той что вчера апгрейдил и на той что сегодня ?

Eduard
12.10.2018
06:41:17
В разное время апдейтил, видимо. Что - то уже докидали в репу.

Ruslan
12.10.2018
06:41:37
блиин, так вон на даты погляди...

Eduard
12.10.2018
06:42:13
По хорошему. Нужен локальный репо со всем этим делом, с проверенными версиями. А новые обновления ставишь на тестовый полигон, проверяешь, потом синкаешь с локальным уже, с которого обновляется продакт.

Ruslan
12.10.2018
06:42:48
нода1 - 20180530
нода2 - 20180626
нода3 - 20180524
Первая вчера, вторая только что с апгрейда
И на ноде2 горит апгрейд! при том что на ней самый свежий получается билд

Eduard
12.10.2018
06:46:28
Ты просто обновлялся с консоли. Энжин не знает какие версии у тебя.
Сделай на каждой ноде через интерфейс check updates.

Ruslan
12.10.2018
06:46:32
Если оставить ноду непроапгрейженой, она не может сама позже накатить апгрейд и ребутнуться ?

Eduard
12.10.2018
06:47:11
Для успокоение души, можешь еще с консоли каждой ноды.
yum clean all
yum check-updates

Google

Ruslan
12.10.2018
06:47:30
Я снимки то присылал с хост-консолей каждой ноды
Там оно тоже может выдавать не то что есть ?
Ну и плюс к этому у меня NOC собирает изменения в пакетах на каждой ноде...

Eduard
12.10.2018
06:48:42
Я, если честно раскатываю всегда на живой Centos или RHEL. ovirt-node не использую.
Проверь в консолях.
yum clean all
yum check-updates

Ruslan
12.10.2018
06:49:05
цифры в хост-консоли - совпадают с цифрами собранными НОКом
Ок.
Сча запущи.

Eduard
12.10.2018
06:49:19
Если все проапдейтилось и нового ничего не вылезет. То все у тебя Ok

Ruslan
12.10.2018
06:50:00
При работах с нодами из консоли, я так понимаю желательно ноды переводить в майнтенансе ?

Eduard
12.10.2018
06:50:13
Нет.

Ruslan
12.10.2018
06:50:31
Ну ок.

Eduard
12.10.2018
06:50:32
yum check-updates
ничего не меняет.
При обновлениях - да.