@pro_kvm

Страница 505 из 521
Eduard
11.10.2018
11:38:07
Элита, куда нам ? Шутка.

Дима
11.10.2018
15:08:25
Сеф - читал про него, но пока много народу сходится к тому что сырой еще... мол нежелательно в прод.
Если строить его из того что есть то да получить что-то вменяемое сложно , разве что так чисто посмотреть , если делать все хотяб в минимальных требованиях то получается вполне нормально

Google
Дима
11.10.2018
15:11:24
у нас года два уже живет

Eduard
11.10.2018
15:14:04
Я вот сейчас пишу доки по нему. Читаю столько всего. Скажу одно - большой кластер - бекапы, бекапы и еще раз бекапы. Это раз. Автоматизация фулдеплоев ансиблом, но случай тотальных падений.

Многие большие корпорации работают с Ceph с репликами больше 3.

Бекапы тоже можно с цефа в цеф лить.

Можно держать два кластера с Ceph и виртуализацией поверх и отказоусточивость виртуалок строить на HAProxy, pacemaker и т.д.

Чем больше инфраструктура, тем выше должна быть безопасность.

Чем больше у вас автоматизировано процессов, тем проще пережить падения.

Панацеи от этого всего нет.

Я, например, везде, где работал, всегда требовал от админов, выкатывать сервера только с помощью ansible. Тоесть к каждому серверу есть набор ролей под каждый его сервис для его поднятия, настройки и конфигурирования + backup/restore. При падении насмерть, с чистой системы запуском одного плейбука поднимается новый сервер до продуктива и берет оперативные данные из бекапа. Без вмешательства руками в настройки.

Сразу снимается вопрос, что делать, когда человек, который настраивал тот или другой сервер в отпуске.

Как - то так.

Извините за много буков :)

CMS должен быть не вспомогательным инструментом, а одним из основных.

Google
Andrey
11.10.2018
16:24:35
народ, а если metadata в lvmthin кончилась, что можно сделать?

Andrey
11.10.2018
16:26:54
lvextend --poolmetadatasize +2G vg0/lv0
Так не получатся. lvextend --poolmetadatasize +100M pve-hdd/data WARNING: Sum of all thin volume sizes (4.85 TiB) exceeds the size of thin pools and the size of whole volume group (3.64 TiB)! For thin pool auto extension activation/thin_pool_autoextend_threshold should be below 100. Size of logical volume pve-hdd/data_tmeta changed from 1.00 GiB (257 extents) to 1.10 GiB (282 extents). device-mapper: message ioctl on (253:4) failed: Operation not supported Failed to process thin pool message "delete 141". Failed to lock logical volume pve-hdd/vm-114-disk-1. Internal error: Performing unsafe table load while 1 device(s) are known to be suspended: (253:2)

Dan
11.10.2018
16:27:55
Performing unsafe table load while 1 device(s) are known to be suspended: (253:2) похоже там немного другие траблы

Andrey
11.10.2018
16:29:23
Performing unsafe table load while 1 device(s) are known to be suspended: (253:2) похоже там немного другие траблы
не могу понять откуда он это берет. Там будто очередь выстроилась из тасков

Dan
11.10.2018
16:29:54
может быть. я хз что там прокс делает

Eduard
11.10.2018
16:52:04
Набросал краткие инструкции под контейнера для oVirt + Ceph RBD. Пока очень краткие. Посмотрите ? https://github.com/lantaris/Docker-cinder-12/blob/master/README.md https://github.com/lantaris/Docker-cinder-13/blob/master/README.md

Если конечно у кого - то время есть.

Блин, разгильдяйство. Попросили знакомые два контейнера под мимик и люминус. Собрал, отдал. Попросил поднять не внутри енжина а на отдельной виртуалке. Померять скорость, сколько памяти съест. Как по стабильности.... Единственно что добился сегодня от них - "Нормуль уже в продакте". Распиздяйство просто. Ни тестов нифига... Ну как так ?

Людям толи пофигу все... Толи хрен его знает...

Alex
11.10.2018
17:10:54
Людям толи пофигу все... Толи хрен его знает...
Им пофигу, хуяк хуяк и в продакшн

Eduard
11.10.2018
17:11:25
Даже не откатали.

Блин, у меня к живому железу доступа нет. Мне даже самому его нормально проверить не на чем. На них была надежда.

Terminator
11.10.2018
19:47:38
Мишаня будет жить. Поприветствуем!

Алексей
11.10.2018
20:59:30
народ привет

кто юзает huawei сервера?

Hackru
11.10.2018
21:06:54
поиск по чату не работает?

Jan
11.10.2018
23:13:26
Google
Ruslan
12.10.2018
06:12:36
Набросал краткие инструкции под контейнера для oVirt + Ceph RBD. Пока очень краткие. Посмотрите ? https://github.com/lantaris/Docker-cinder-12/blob/master/README.md https://github.com/lantaris/Docker-cinder-13/blob/master/README.md
На мой взгляд вполне себе внятно. Думаю жене подсунуть, пусть поднять попробует. ? Если у нее получится - то считай что инструкции гениальны ! ?

Eduard
12.10.2018
06:14:49
Это краткая. Полную закончу, выложу.

Только пусть разворачивает на отдельной виртуалке, не внутри энжина пока на первом этапе. Хочу просто знать, сколько оно памяти скушает.

И стабильность, естественно проверить, если можно.

Ruslan
12.10.2018
06:20:13
ну дома-то у меня не будет особо много всего.... я сперва дома все смотрю-обкатываю, потом беру на работе старье-какое-то и на нем катаю, и только потом уже переношу или нет на более-менее рабочие среды.

Eduard
12.10.2018
06:20:42
Ok

Ruslan
12.10.2018
06:21:17
Конфиг овирта, который сейчас у меня,я поднимал как тестовый контур, но .... как это часто бывает, надо то и срочно, у тебя есть где, давай сделаем .... в результате необкатанная вещь в проде .... ну почти в проде.

Вот и выгребаем всякое. Спасает то что на каждом совещании кричу что это тестовая среда, дайте денег на прод

Eduard
12.10.2018
06:23:57
Лучше тестовые полигоны все - таки иметь под рукой.

Ruslan
12.10.2018
06:24:57
Ага.... согласен, но .... почему-то доказать руководству что нужно выложить хотяб лям на тестовый полигон - практически невозможно.....

Эдуард, не подскажешь, как бы мне удалить ошметки хостеденжин с нод ?

Eduard
12.10.2018
06:31:04
У меня тоже такая - же бойня была. Но тестовый полигон из мусора все таки собрали. А продуктив косой и кривой. Только задачи раздаются, а что нужно железо, которое очень критично для работы продакта, всем просто по барабану.

Ruslan
12.10.2018
06:32:07
смотри, я сейчас пытаюсь привести все ноды к общему знаменателю по версиям. вот 3-я:



сори 2-я



Но на ней не горит значок коробки

А на ноде 2 - горит

и на ноде 3 горит, я ее сейчас отправил апгрейдится.

Почему ?

Google
Eduard
12.10.2018
06:36:35
В интерфейсе в меню выбери Check for updates на этой ноде

Обновлял видимо через yum. Энжин просто об этом пока не в курсе.

Ns ovirt-node разворачивал ?

Ruslan
12.10.2018
06:37:55
ovirt-ng-node с дистриба что предлагает сам овирт

Eduard
12.10.2018
06:37:58
Только обязательно паузы после ребутов делай и проверяй heal гластера.

Ruslan
12.10.2018
06:38:39
Паузы между выводом ноды из майнтенансе ?

Eduard
12.10.2018
06:39:02
Иначе зафризиш какой - то том гластера из за того, что реплика отсинхронизироваться не успела.

Том живой, пока кворум есть. Тоесть, в твоем случае две синхронные реплики из трех.

Ruslan
12.10.2018
06:39:50


Eduard
12.10.2018
06:40:09
Перегрузиш один хост и за ним сразу второй. Получиш две оставшиеся реблики, которые не синхронны, будет блокировка.

Ruslan
12.10.2018
06:40:40
блин, почему не одинаковые версии на той что вчера апгрейдил и на той что сегодня ?

Eduard
12.10.2018
06:41:17
В разное время апдейтил, видимо. Что - то уже докидали в репу.

Ruslan
12.10.2018
06:41:37
блиин, так вон на даты погляди...

Eduard
12.10.2018
06:42:13
По хорошему. Нужен локальный репо со всем этим делом, с проверенными версиями. А новые обновления ставишь на тестовый полигон, проверяешь, потом синкаешь с локальным уже, с которого обновляется продакт.

Ruslan
12.10.2018
06:42:48
нода1 - 20180530 нода2 - 20180626 нода3 - 20180524 Первая вчера, вторая только что с апгрейда

И на ноде2 горит апгрейд! при том что на ней самый свежий получается билд

Eduard
12.10.2018
06:46:28
Ты просто обновлялся с консоли. Энжин не знает какие версии у тебя. Сделай на каждой ноде через интерфейс check updates.

Ruslan
12.10.2018
06:46:32
Если оставить ноду непроапгрейженой, она не может сама позже накатить апгрейд и ребутнуться ?

Eduard
12.10.2018
06:47:11
Для успокоение души, можешь еще с консоли каждой ноды. yum clean all yum check-updates

Google
Ruslan
12.10.2018
06:47:30
Я снимки то присылал с хост-консолей каждой ноды

Там оно тоже может выдавать не то что есть ?

Ну и плюс к этому у меня NOC собирает изменения в пакетах на каждой ноде...

Eduard
12.10.2018
06:48:42
Я, если честно раскатываю всегда на живой Centos или RHEL. ovirt-node не использую.

Проверь в консолях. yum clean all yum check-updates

Ruslan
12.10.2018
06:49:05
цифры в хост-консоли - совпадают с цифрами собранными НОКом

Ок.

Сча запущи.

Eduard
12.10.2018
06:49:19
Если все проапдейтилось и нового ничего не вылезет. То все у тебя Ok

Ruslan
12.10.2018
06:50:00
При работах с нодами из консоли, я так понимаю желательно ноды переводить в майнтенансе ?

Eduard
12.10.2018
06:50:13
Нет.

Ruslan
12.10.2018
06:50:31
Ну ок.

Eduard
12.10.2018
06:50:32
yum check-updates ничего не меняет.

При обновлениях - да.

Страница 505 из 521