Dorian
Много уже кто пользуется
Fox
среди операторов не слышал
J
А операторам то он на кой? MPLS и новомодный Segment routing же есть у них.
Илья
Ну да, Зелакс делает свой контроллер и всё такое. Маркетинг булшитом интернет переполнен. А на практике счастливых хвастающихся эксплуататоров openflow в дц нет. Пытаются какого-то мутного хостера в Японии предьявить
Илья
Не, я про дц
J
ну VPLS мы юзаем
Ну вот. А так то Openflow ваще отлично прижился в датацентрах.
Илья
Ну вот. А так то Openflow ваще отлично прижился в датацентрах.
Ну так где все эти комьюнити, где решают масштабные проблемы с openflow? Ни майллистов ни форумов. Тишина, и только доки и подсчеты tco от вендоров
Илья
А что там решать ? :)
Вообще неизбежно при эксплуатации неизбежно вылазят проблемы. Инженеры на них жалуются в бложиках-майллистах-форумах и тд. Инженеров занимающихся TRILL на разных платформах видел, ACI, OTV, evpn и всё прочее так или иначе вылазит в интернет своими проблемами и оставляет там след. Но почему-то не openflow. Я же не спорю, просто хочу понять, это что, типа gold bullet для датацентров? Его ставят и всё начинает работать в режиме 24x7x365?
Илья
Без разницы на что, я не про детализацию
Dorian
Да там все слишком просто.
Илья
Принципиально неизбежно или непонимание или баги в софте или железе
Dorian
Flow прописал оно и работает
Dorian
Хотите по рефу, берите Noviflow
Dorian
Хотя и там косяки были
J
В общем, как всегда. Жалуются в мейл листах - говно. Не жалуются - еще хуже технология)
Akhmed Gasanov
Когда технология молодая следует подумать о том что было бы лучше внести какой нибудь вклад в ее развитие или хотя бы доказать что она негодная. Ну или просто ждать)
Илья
Не такая она уже молодая, эта технология openflow ))
Akhmed Gasanov
sdn/nfv молодая)
Akhmed Gasanov
openflow - протокол, sdn/nfv - технологии
Dauren
Привет всем! не встречали такое 2018-01-15 14:49:34.752 3946 ERROR oslo_messaging.rpc.dispatcher MigrationPreCheckError: Migration pre-check error: Cannot block migrate instance 5feedad9-b75a-4c05-8f3f-673f6b60829c with mapped volumes. Selective block device migration is not supported with tunnelled block migrations. 2018-01-15 14:49:34.752 3946 ERROR oslo_messaging.rpc.dispatcher 2018-01-15 14:49:34.754 3946 ERROR oslo_messaging._drivers.common [req-525006b5-1476-41db-9966-5938c8111368 8ffcf0fd2ba44bfb885bc746d1e48587 978815f583da455380de55c01e335ebf - - -] Returning exception Migration pre-check error: Cannot block migrate instance 5feedad9-b75a-4c05-8f3f-673f6b60829c with mapped volumes. Selective block device migration is not supported with tunnelled block migrations. to caller сама миграция работает live-migration выдает ошибку
Boris
рисковые ребята =)
NS 🇷🇺
Коллеги, по Ironic может кто подсказать, уже всю голову сломал, при деплое возникает следующая ошибка 2018-01-15 16:34:46.728 25921 ERROR ironic.conductor.manager [req-fc875ff2-f776-461f-bbdd-7aa206e3f8a9 - - - - -] Error in deploy of node 9d73b1b8-ca95-4b3d-96bc-508939fbb2f8: [Errno 18] Invalid cross-device link
J
Коллеги, по Ironic может кто подсказать, уже всю голову сломал, при деплое возникает следующая ошибка 2018-01-15 16:34:46.728 25921 ERROR ironic.conductor.manager [req-fc875ff2-f776-461f-bbdd-7aa206e3f8a9 - - - - -] Error in deploy of node 9d73b1b8-ca95-4b3d-96bc-508939fbb2f8: [Errno 18] Invalid cross-device link
Да, могу. Дело не в Ironic, а в том что у тебя хранилище с образами и /var/lib/ironic находятся на разных физических устройствах. Ironic при начале развертки пытается сделать хардлинк из исходных образов к себе в /var/lib/ironic чо-то там и это у него, естественно, не выходит. Потому что устройства физические разные.
J
Угадал?
NS 🇷🇺
отчасти
NS 🇷🇺
трудность в том, что у меня серваки двух вендеров, и с первым я такое не ловлю
J
conductor сервер один и тот же? И образы одни и те же?
NS 🇷🇺
именно
NS 🇷🇺
https://imgur.com/delete/02bqeehh2hDekcm вот как то так все выглядит =(
J
Образ пересобирал после первых двух серверов?
NS 🇷🇺
нет
J
а набор интерфейсов или драйвер один и тот же или разные?
NS 🇷🇺
разные, первый агент_иимпитул, вторые пхе_ипмитул
J
Один драйве может не использовать Image_cache (например, потому что агент образ к себе качает и сам же деплоит), поэтому там все норм прошло. А другой использует (например, потому что образ деплоится через iscsi таргет). И вот тут то ты и напоролся на то что ironic не может хардлинк между устройствами (что логично).
J
разные, первый агент_иимпитул, вторые пхе_ипмитул
Ну вот) Я прост дописал позже чем ты ответил. Варианты вот какие можно попробовать: - Разместить директорию с кэшем образов или исходный образ, на который указываешь ссылку в Instance_info на одном устройстве. - Сменить драйвер на agent_ipmitool - Попробовать убрать у Ironic право на запись в образ который указан в instance_info (не уверен, но вроде была такая хуйня что когда он не может писать в образ, он не делает хардлинк, а копирует в image_cache)
NS 🇷🇺
уже пробую =)
J
уже пробую =)
Который из вариантов?)
NS 🇷🇺
агента пока поменял, уже хорошо сервак успел включится =)
NS 🇷🇺
ну нихрена себе, оно даже работает =) надо разбираться в механизме работы pxe_ipmitool
Timur
интересно, а кто-нибудь через это проходил ? https://docs.openstack.org/nova/pike/admin/node-down.html
Timur
euca-describe-instances, select,update,find,/bin/bash,iscsiadm...
J
Не пойму чо-то что за мешанина в статье.
J
evacuate и миграция и так работают ж. Чо там за ручные правки базы, какая эука...
Timur
вот и все время думал, что evacuate в ручном режиме и все счастливы. А тут такая жуть
Timur
ну есть канеш объяснение, что это на случай, если compute-ноде совсем уже хана ... но все-равно статья выглядит жутковато :)
J
ну есть канеш объяснение, что это на случай, если compute-ноде совсем уже хана ... но все-равно статья выглядит жутковато :)
Там ручная возня описана и хз зачем. Если compute ноде хана, то сделается ребилд из базы при эвакуации.
J
Тут, смотрю, какие-то частные случаи рассматриваются. Для примера, видать.
J
И выбор не самый удачный в плане примеров.
J
Там кароч про HPшный опенстек идет речь, судя о всему. Почему это попало в общее руководство по администрированию - загадка ваще.
Timur
о как
Timur
спасибо
J
Тырпрайз)
NS 🇷🇺
Ну и гуд.
Зачистка правда со второго раза начинается, но это разберёмся
J
А с первого раза чо происходит?
NS 🇷🇺
С винта загружается, хотя стоит pxe
NS 🇷🇺
А второй ребут гладко уходит на зачистку
J
Ну, спишем это на особенности BMC контроллера)
NS 🇷🇺
Не, буду курить эту тему, тут только рушечками дообаешаюсь сначала
Boris
satandyh
J
Ребята, буду благодарен если кто-нить по-быстрому пояснит про glance api v2. Три вопроса: - Туда ж так и не впилили возможность скачивать образ по url (--location, —copy-from)? - Не соображу как добавлять образ с http store через CLI клиент - Что нужно сделать чтоб Horizon позволял добавлять образы с http store? А то http store включен в glance-api.conf, но Horizon предлагает только грузить файл.
J
что-то про это видела в /etc/openstack-dashboard/local_settings
Поленился сам искать) Спасибо! Наверн, вот это IMAGES_ALLOW_LOCATION = True И искать в glance чо как насчет политик. Либо выставить OPENSTACK_API_VERSIONS = { "image": 1 }
J
Короче, IMAGES_ALLOW_LOCATION норм сработала)
Inna
👍
Ivan
Всем привет! Через неделю, 24 января, проводим OpenStack митап в Санкт-Петербурге. Вадим Пономарёв расскажет о своём опыте разработки плагина для Neutron, Пётр Федченков расскажет о разрабатываемой в ИТМО облачной системе управления географически распределенными ЦОДами. Будет видеотрансляция, слайды скорее всего будут выложены в открытый доступ после докладов. https://www.meetup.com/OpenStack-Russia-St-Petersburg/events/246061055/ Мы завели отдельный канал для Петербургского митапа: https://t.me/openstack_meetup_spb, присоединяйтесь.
Maxim
жаль в мск не будет ничего(
Inna
Тут второй альбом вышел. 01. Парень шел на OCP 02. Вендор гонит порожняк 03. Запилю я прокса кластер 04. Проложи мне СКС 05. Первый Ceph как первый срок 06. На улице Большой Морской ажиотаж 07. Девочка из техподдержки 08. Облака летят над опенстеком 09. Эх, не шей мне SLA 10. SAP HANA, жизнь моя 11. Нутаникс, все ночи полные огня
Михаил
Я на всякий случай напомню, что треш угар и содомия проходят в @cloud_flood
Boris
первый Ceph как первый срок 😆