Jain
Конечно так и делал, как на хосте так и в конте все дергаеться. днс есть, сеть есть. :)
✠ FLASh ✠
тогда очень странно...
Jain
Ага, тут мне предлагали нексус поставить и все артифакты туда пихать. Но это еще одна тузла которую обслуживать нужно. ... Придеться опять с коробкой печенек к сетевикам идти ...
Dok
Привет, ребят! Скажите, у меня virtualbmc почему-то не хочет переключать приоритеты boot, из-за чего деплой валится. Собственно, виртуалку он спокойно включает/выключает, а вот на ipmitool -I lanplus chassis bootdev pxe отвечает ошибкой Set Chassis Boot Parameter 5 failed: Unspecified error Было такое у кого?
Dok
Возможно, bootdev network, а не bootdev pxe.
Всё бы ничего, но эти команды использует ironic
Я и твой кот
Invalid argument: network
Ясно. Перепроверил, в virtualbmc в мануале написано, что название параметра - pxe, но в коде это сорсится из libvirt’а. В xml libvirt’а это называется <boot dev='network'/>, потому я и предложил попробовать ‘network’. Предлагаю включить дебаг и посмотреть, какие там варианты на самом деле, и что их обоих не устраивает.
Я и твой кот
Пардон, LOG.info(msg)
NS 🇷🇺
HP MSA2000FC
ну настраивайте ее, драйвер есть нативный
NS 🇷🇺
у вас 1 диск будет - 1 лун
NS 🇷🇺
и презентован он будет только хосту, на котором запущена вм
vmguru
vmguru
Через cinder драйвер?
NS 🇷🇺
угу
vmguru
да
Ок, спасибо большое, прям VVols от VMware, который VMware слизала у Openstack и теперь рекламирует везде
vmguru
Ох, как это будет не удобно :(
vmguru
да
А, онлайн миграция между хостами будет доступна?
NS 🇷🇺
да
vmguru
да
Уау, спасибо!
NS 🇷🇺
у вас при миграции лун будет презентован другому хосту
vmguru
Только беда осталась, у меня >400 ВМ, а это будет 400 LUN на HP P2000FC
vmguru
Будет тяжко
vmguru
Ещё раз спасибо всем!
NS 🇷🇺
у нас есть EMC где максимум 256 лун может быть
vmguru
у нас есть EMC где максимум 256 лун может быть
Тоже самое, есть ли какое ли какое нибудь решение?
NS 🇷🇺
shared_lvm
NS 🇷🇺
но я не знаю допилили ли нормально драйвер
NS 🇷🇺
в этом случае будет почти как сфера с ESXi
vmguru
shared_lvm
Это типа кластерный LVM, но каждая ВМ=1 LV и он монтируется только к одному хосту?
NS 🇷🇺
если притянуто за уши, то да =)
vmguru
если притянуто за уши, то да =)
Огромное вам спасибо!
NS 🇷🇺
не за что
Artemy
Я помню. shared LVM. И он мне не нравится. Очень уже гнусную подлянку он может подложить.
Pavel
это clvmd который?
Artemy
1. Волюмы должны быть толстыми (связано с блокировками). Но это хоть может быть решено тонким луном - но опять же получится жопа с производительностью (copy-in-write) 2. Вся цепочка DM-устройств - волюм, снапшот и что-там-еще открывается эксклюзивно на одном хосте. В результате например создать волюм со снапшота может внезапно оказаться не самой простой задачей - новый волюм должен приземлиться рядом (на одном хосте) со старым потом деактивироваться и потом подняться на новом То есть до тех пор пока твой кейс "создать машину из гланса" это всё работать будет, но если у тебя появляются другие кейсы - всё, тушите свет.
NS 🇷🇺
у нас древний лвм работает с разными кейсами на одной из площадок, но приключения да могут быть
tsla
https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/6/html/logical_volume_manager_administration/lvm_cluster_overview
Я и твой кот
Есть. GFS2 и OCFS2, но в рамках эксперимента только.
Jain
а какже NFS? Выбор есть всегда :)
Artemy
а какже NFS? Выбор есть всегда :)
Да. Поверх OCFS. Чтобы типа три сервера, и клиенты раундробином выбирали на какой прийти.
J
Читаю вас и выглядит что-то нифига не просто)
Я и твой кот
tsla
Есть. GFS2 и OCFS2, но в рамках эксперимента только.
нах-нах, вот крайне не рекомендую кластерные ФС
Я и твой кот
нах-нах, вот крайне не рекомендую кластерные ФС
Так уж получилось, что в linux их не осилили.
Jain
Я имею ввиду NFS сразу на хранилек. Если она это умеееи конечно.
tsla
а какже NFS? Выбор есть всегда :)
то есть презентовать весь объем на сервер и с этого сервера раздавать по нфс 🤣😂
tsla
мсье знает как устроит факап и добавить точку отказа )
tsla
Да. Поверх OCFS. Чтобы типа три сервера, и клиенты раундробином выбирали на какой прийти.
не проще тогда на 3 сервера презентовать равномерно, цефом обмазать, потом cephfs - > nfs
tsla
кстати, я типа такого сча увидал у одной девопс конторы
Jain
ни х не знаю. ~20 разных нетаппов стоит. Все по nfs раздаеться. за 10 лет проблем небыло. Тьфу-Тьфу
tsla
а у ТС вроде как хулипаккард с фц
Jain
Ну я и говорю если хранилка ТС умеет в nfs
Jain
аааа, нутогда облом.
Artemy
мсье знает как устроит факап и добавить точку отказа )
Ойблиндаладно. Второй сервак рядом с HA - если первый сдох, на втором туту же монтируется и NFS поднимается и все счастливы. Ну конечно кроме тех у кого кэш был на NFS-сервере с включенным async и чьи ФС покорраптились 🙂
vmguru
Понятненько, чем больше читаю, тем больше понимаю почему VMware номер 1
vmguru
Всем спасибо за отзывчивость, а то очень сложная документация у Openstack и без примеров
tsla
при переключении клиенты встанут колом
tsla
хотя, ганешу никто не запрещает юзать
J
Я упустил момент чо-то. Этот весь огород обсуждается из-за того что надо возиться с энтерпразной железкой какой-то где ограничение на количество LUN?
vmguru
Полно примеров то)
Моего точно нет
vmguru
https://docs.openstack.org/cinder/latest/admin/blockstorage-manage-volumes.html
J
Да, всё верно
Беда. Ну и ты не обижайся на тех кто документацию пишет. Даже святая вмваре только сертифицированные(тм) и рекомендованные(тм) конфигурации описывает.
J
А тут проблема просто с энтерпрайзным железом которое не очень под задачу подходит.
vmguru
спасибо, что хоть такая
Я не понимаю как серьезные компании могут использовать Openstack
tsla
Я не понимаю как серьезные компании могут использовать Openstack
большие конторы как раз и могут развернуть опенстэк