Александр
Всмысле, оно поддерживает, но надо настроить
Михаил
10г сеть лучше сделай на интерконнект цефа
Ilia
Михаил
На гигабите даже не пытаться?
Лабу можно. Интерконнект к проду тоже можно попробовать, но вдумчиво, понимая тип нагрузки. А вот интерконнект между нодами цефа нужен 10г. Иначе ребаланс будет долгим и печальным
Pavel
Лучше просто взять и посчитать, сколько будет ребаланс и сколько будет потолок между цефом и клиентом
Pavel
Если устраивает - велкам
kay
Коллеги, я понимаю, что это чятег про openstack, но всё же отважусь задать вопрос.
Можно ли в openstack создать attacheable volume без cinder? Volume же создаётся под каждую виртуалку без cinder, значит должна быть возможность создавать его без отдельного хранилища.
Пока у меня только вот такой результат:
$ cinder list
+--------------------------------------+--------+-------------+------+-------------+----------+-------------+
| ID | Status | Name | Size | Volume Type | Bootable | Attached to |
+--------------------------------------+--------+-------------+------+-------------+----------+-------------+
| ae59dee1-e889-48bb-963d-1dfd904784ad | error | test | 10 | - | false | |
+--------------------------------------+--------+-------------+------+-------------+----------+-------------+
Albert
Итак, контролер упал, зато все компьют ноды остались рабочими. Но, все инстансы потеряли сеть. Сеть с инстансами вернулась когда контролер вернули. Что это может быть? Почему такая надобность в контролере для работы сети?
Tverd
А на чем сеть? Linux bridge?
Albert
Да
Albert
Пока седим на Митаке
NS 🇷🇺
если сеть легаси, то это нормально поведение, если DVR то надо разбираться
Albert
Что такое сеть легаси?
Tverd
А шлюзом что является? Не сам контроллер?
Albert
Когда все подымали, то подымали по официальным докам митаки + self service
Albert
Albert
Походу да, он на контролере
Albert
Подскажите тогда как все настроить тогда
Albert
Буду благодарен
Albert
Вроде нашел: https://wiki.openstack.org/wiki/Neutron/DVR
Albert
Оно?
NS 🇷🇺
http://docs.openstack.org/liberty/networking-guide/scenario-dvr-ovs.html
NS 🇷🇺
хоть ссылка и на либерти, но на митаке тоже проверялось
Tverd
В общем если контроллер шлюз и различные подсети для виртуалок, соответственно при отключении контроллера они не будут друг друга видеть. Если в одной подсети, то пофигу
Artem
Как вариант несколько контроллеров и HA роутеры
kay
По volume у кого-нибудь есть соображения?
Artem
По volume у кого-нибудь есть соображения?
не понимаю вопроса- по сути ты на cinder можешь скормить локальную lvm vg и она по iscsi будет подключаться на compute ноды(хранилка не отдельная- все в рамказ ноды, где стоит cinder-volume)
kay
у меня нет cinder host'а
kay
у меня кактус под названием rackspace private cloud
Александр
Это нормально в нашем не нормальном мире
Artem
что есть cinder host? у тбея есть где запутсить cinder-volume и где будет lvm vg, которую можно пользовать как хочется?
Artem
* но естественно, если этот хост с cinder-volume упадет- то все виртуалки лягут по отвалу диска
kay
@saamich ты предлагаешь запустить cinder-volume в кластере openstack и зарегистрировать его в openstack?
Tverd
кстати на хабре статья про сеть
https://habrahabr.ru/post/321442/
kay
@saamich доступа к compute node нет. могу лишь только сервисы зарегистрировать через keystone service-create. сейчас вот запустил виртуалку со 100Gb root partition. И сразу же наткнулся на проблему. Ubuntu cloud image по умолчанию ресайзит partition до максимального размера. Сейчас пытаюсь понять как ужать текущий раздел.
kay
* загрузиться в rescue cd? не понял как... вроде как можно только создать instance, который будет грузиться с ISO, но не перезагрузить текущий instance в ISO
* запретить cloudinit ресайзить диск? тоже пока не понятно.
* ресайзить диск наживую?
Artem
kay
@saamich запилил конфиг:
#cloud-config
growpart:
mode: {{ grow_partition }}
теперь при деплое виртуалка не ресайзит диск.
kay
@saamich что-то не могу найти ман как cinder volume настраивать
kay
и как его регистрировать в openstack service
Artem
http://docs.openstack.org/mitaka/install-guide-rdo/cinder-storage-install.html
kay
openstack compute service list | grep cinder пусто
Artem
но регается api
kay
настраиваю сижу.
kay
а обязательно использовать oslo_messaging_rabbit ? или его как-то отключить можно?
kay
[DEFAULT]
rpc_backend = fake
kay
openstack service create --name cinder --description "OpenStack Block Storage" volume
Could not find requested endpoint in Service Catalog.
kay
Засада. Rackspace чтоли отключил специально
kay
Или может я что-то не так делаю?
Artem
не скажу
kay
не скажу
что бы это значило? знаешь, но не скажешь или не знаешь и не скажешь?
Artem
не знаю и разбираться сейчас нет ни времени - ни желания
Михаил
Для особо смелых есть новость
CEPH v12.0.0 Luminous (dev) released
Mark ☢️
слабоумие и отвага
Mikhail
вот кстати о первом: я тут ошибся немного с количеством нулей и попытался создать image размером почти в петабайт, ceph начал генерить объекты и на 20+ млн, часов через 12 ноды tier пула стали падать из-за нехватки памяти, на них было по 4гб озу, разделы диска по 500 гб
Mark ☢️
Mikhail
сама операция создания имиджа на этом сдохла, но 20 млн объектов-то в пуле остались, я добавил памяти нодам, благо они на виртуалках и они теперь кушают по 50 гб озу
Mikhail
вот мне интересно, это у меня что-то не так пошло или сколько ж им памяти надо на большом объеме пула?
Mark ☢️
50 Гб это овердохуя
Mark ☢️
погоди. а как ты увидел что он жрёт 50Г ? (без приколов)
Mikhail
Sergei
так 5Г на осд
Mikhail
и на всех четырех примерно так же
Mark ☢️
фигня какаято. пид-файл одинаковый, а пиды разные
Mark ☢️
и это не треды.
Mark ☢️
у тредов tid
Sergei
да нет, хтоп вполне показывает PID у тредов.
Sergei
на экране одна и таже OSD
Mark ☢️
тогда почему пиды-то разные ?
Mark ☢️
не может быть что хтоп настолько тупой
Mark ☢️
щас проверю
Sergei
я проверил уже.
Mark ☢️
Mark ☢️
дебилы блять