Александр
Всмысле, оно поддерживает, но надо настроить
Михаил
10г сеть лучше сделай на интерконнект цефа
Ilia
10г сеть лучше сделай на интерконнект цефа
На гигабите даже не пытаться?
Михаил
На гигабите даже не пытаться?
Лабу можно. Интерконнект к проду тоже можно попробовать, но вдумчиво, понимая тип нагрузки. А вот интерконнект между нодами цефа нужен 10г. Иначе ребаланс будет долгим и печальным
Pavel
Лучше просто взять и посчитать, сколько будет ребаланс и сколько будет потолок между цефом и клиентом
Pavel
Если устраивает - велкам
kay
Коллеги, я понимаю, что это чятег про openstack, но всё же отважусь задать вопрос. Можно ли в openstack создать attacheable volume без cinder? Volume же создаётся под каждую виртуалку без cinder, значит должна быть возможность создавать его без отдельного хранилища. Пока у меня только вот такой результат: $ cinder list +--------------------------------------+--------+-------------+------+-------------+----------+-------------+ | ID | Status | Name | Size | Volume Type | Bootable | Attached to | +--------------------------------------+--------+-------------+------+-------------+----------+-------------+ | ae59dee1-e889-48bb-963d-1dfd904784ad | error | test | 10 | - | false | | +--------------------------------------+--------+-------------+------+-------------+----------+-------------+
Albert
Итак, контролер упал, зато все компьют ноды остались рабочими. Но, все инстансы потеряли сеть. Сеть с инстансами вернулась когда контролер вернули. Что это может быть? Почему такая надобность в контролере для работы сети?
Tverd
А на чем сеть? Linux bridge?
Albert
Да
Albert
Пока седим на Митаке
NS 🇷🇺
если сеть легаси, то это нормально поведение, если DVR то надо разбираться
Albert
Что такое сеть легаси?
Tverd
А шлюзом что является? Не сам контроллер?
Albert
Когда все подымали, то подымали по официальным докам митаки + self service
NS 🇷🇺
Что такое сеть легаси?
тупые сеточки, когда весь трафик течет наружный через нетворк ноду
Albert
А шлюзом что является? Не сам контроллер?
Сейчас с сетевой командой проверю
Albert
Походу да, он на контролере
Albert
Подскажите тогда как все настроить тогда
Albert
Буду благодарен
Albert
Вроде нашел: https://wiki.openstack.org/wiki/Neutron/DVR
Albert
Оно?
NS 🇷🇺
http://docs.openstack.org/liberty/networking-guide/scenario-dvr-ovs.html
NS 🇷🇺
хоть ссылка и на либерти, но на митаке тоже проверялось
Tverd
В общем если контроллер шлюз и различные подсети для виртуалок, соответственно при отключении контроллера они не будут друг друга видеть. Если в одной подсети, то пофигу
Artem
Как вариант несколько контроллеров и HA роутеры
kay
По volume у кого-нибудь есть соображения?
Artem
По volume у кого-нибудь есть соображения?
не понимаю вопроса- по сути ты на cinder можешь скормить локальную lvm vg и она по iscsi будет подключаться на compute ноды(хранилка не отдельная- все в рамказ ноды, где стоит cinder-volume)
kay
у меня нет cinder host'а
kay
у меня кактус под названием rackspace private cloud
Александр
Это нормально в нашем не нормальном мире
Artem
что есть cinder host? у тбея есть где запутсить cinder-volume и где будет lvm vg, которую можно пользовать как хочется?
Artem
* но естественно, если этот хост с cinder-volume упадет- то все виртуалки лягут по отвалу диска
kay
@saamich ты предлагаешь запустить cinder-volume в кластере openstack и зарегистрировать его в openstack?
Tverd
кстати на хабре статья про сеть https://habrahabr.ru/post/321442/
Artem
@saamich ты предлагаешь запустить cinder-volume в кластере openstack и зарегистрировать его в openstack?
ну теоритически это можно сделать- если скорость работы не критична, но я предлагал запутсить вышеозвуечнные сервисы на любой ноде, где есть такая возможность
kay
@saamich доступа к compute node нет. могу лишь только сервисы зарегистрировать через keystone service-create. сейчас вот запустил виртуалку со 100Gb root partition. И сразу же наткнулся на проблему. Ubuntu cloud image по умолчанию ресайзит partition до максимального размера. Сейчас пытаюсь понять как ужать текущий раздел.
kay
* загрузиться в rescue cd? не понял как... вроде как можно только создать instance, который будет грузиться с ISO, но не перезагрузить текущий instance в ISO * запретить cloudinit ресайзить диск? тоже пока не понятно. * ресайзить диск наживую?
kay
@saamich запилил конфиг: #cloud-config growpart: mode: {{ grow_partition }} теперь при деплое виртуалка не ресайзит диск.
kay
@saamich что-то не могу найти ман как cinder volume настраивать
kay
и как его регистрировать в openstack service
Artem
http://docs.openstack.org/mitaka/install-guide-rdo/cinder-storage-install.html
Artem
и как его регистрировать в openstack service
он не регистрируется, как понимаю регается api сервис
kay
openstack compute service list | grep cinder пусто
Artem
openstack compute service list | grep cinder пусто
http://docs.openstack.org/mitaka/install-guide-rdo/cinder-controller-install.html - примеры как зарегать там есть
Artem
но регается api
kay
настраиваю сижу.
kay
а обязательно использовать oslo_messaging_rabbit ? или его как-то отключить можно?
kay
[DEFAULT] rpc_backend = fake
kay
openstack service create --name cinder --description "OpenStack Block Storage" volume Could not find requested endpoint in Service Catalog.
kay
Засада. Rackspace чтоли отключил специально
kay
Или может я что-то не так делаю?
Artem
не скажу
kay
не скажу
что бы это значило? знаешь, но не скажешь или не знаешь и не скажешь?
Artem
не знаю и разбираться сейчас нет ни времени - ни желания
Михаил
Для особо смелых есть новость CEPH v12.0.0 Luminous (dev) released
Mark ☢️
слабоумие и отвага
Mikhail
вот кстати о первом: я тут ошибся немного с количеством нулей и попытался создать image размером почти в петабайт, ceph начал генерить объекты и на 20+ млн, часов через 12 ноды tier пула стали падать из-за нехватки памяти, на них было по 4гб озу, разделы диска по 500 гб
Mikhail
сама операция создания имиджа на этом сдохла, но 20 млн объектов-то в пуле остались, я добавил памяти нодам, благо они на виртуалках и они теперь кушают по 50 гб озу
Mikhail
а дисков сколько в ноде ?
в тиер пуле 4 ноды с разделами по 500 гб
Mikhail
вот мне интересно, это у меня что-то не так пошло или сколько ж им памяти надо на большом объеме пула?
Mark ☢️
50 Гб это овердохуя
Mark ☢️
погоди. а как ты увидел что он жрёт 50Г ? (без приколов)
Mikhail
Sergei
так 5Г на осд
Mikhail
и на всех четырех примерно так же
Mark ☢️
фигня какаято. пид-файл одинаковый, а пиды разные
Mark ☢️
и это не треды.
Mark ☢️
у тредов tid
Sergei
да нет, хтоп вполне показывает PID у тредов.
Sergei
на экране одна и таже OSD
Mark ☢️
тогда почему пиды-то разные ?
Mark ☢️
не может быть что хтоп настолько тупой
Sergei
тогда почему пиды-то разные ?
в колонке PID он пишет ID треда.
Mark ☢️
щас проверю
Sergei
я проверил уже.
Mark ☢️
Mark ☢️
дебилы блять