NS 🇷🇺
у тебя много дел ?
смотря что ты хочешь предложить :D
Mr rang_a
NS 🇷🇺
ты же телепат епрст )
С предложением в личку 😂
Anonymous
David Smith будет жить. Поприветствуем!
Mr rang_a
Ша опять
Anonymous
Bence Lopez будет жить. Поприветствуем!
Anonymous
Roman Romanich будет жить. Поприветствуем!
Anonymous
Алексей будет жить. Поприветствуем!
Anonymous
Добрый день! Подскажите как быть) имеем ситуацию, заканчивается внешняя сеть, используем опенвсвитч. На сетевых нодах с опенвсвитчем решили на интерфейсы, которые гоняли трафик для внешней сети (flat), на эти же интерфейсы, но теперь через транки подать еще один влан для новой сети. На сетевых нодах используются бонды, бонды настроены на уровне операционной системы в режим active+standby (юзаем Центос), теперь к этим бондам собрали уже с определенными вланами интерфейсы. Сделали еще один бридж для внешней сети и добавили бонды с вланами в старый и новый бридж, далее заходим в конфиг openvswitch_agent'a для нейтрона и добавляем туда новую внешнюю сеть в bridge_mappings = external:br-ex,external2:br-ex2, перезапускаем l3-agent, агент опенвсвитча и все, трафик по br-ex больше не проходит (это и была старая сеть), почему не понятно(( как быть тоже не знаем, находил в доке редхата, что для каждой сети используйте отдельные интерфейсы иначе будут петли, но что-то дороговатое решение получается(( подскажите, что может быть надо перенастроить или что можем делать не так? вопрос задавал на ask.openstack.org, но там тишина, по ссылке более подробно все описано - https://ask.openstack.org/en/question/120866/network-issues-when-adding-a-new-external-network/
NS 🇷🇺
Добрый день! Подскажите как быть) имеем ситуацию, заканчивается внешняя сеть, используем опенвсвитч. На сетевых нодах с опенвсвитчем решили на интерфейсы, которые гоняли трафик для внешней сети (flat), на эти же интерфейсы, но теперь через транки подать еще один влан для новой сети. На сетевых нодах используются бонды, бонды настроены на уровне операционной системы в режим active+standby (юзаем Центос), теперь к этим бондам собрали уже с определенными вланами интерфейсы. Сделали еще один бридж для внешней сети и добавили бонды с вланами в старый и новый бридж, далее заходим в конфиг openvswitch_agent'a для нейтрона и добавляем туда новую внешнюю сеть в bridge_mappings = external:br-ex,external2:br-ex2, перезапускаем l3-agent, агент опенвсвитча и все, трафик по br-ex больше не проходит (это и была старая сеть), почему не понятно(( как быть тоже не знаем, находил в доке редхата, что для каждой сети используйте отдельные интерфейсы иначе будут петли, но что-то дороговатое решение получается(( подскажите, что может быть надо перенастроить или что можем делать не так? вопрос задавал на ask.openstack.org, но там тишина, по ссылке более подробно все описано - https://ask.openstack.org/en/question/120866/network-issues-when-adding-a-new-external-network/
тут вывод вашего ovs-vsctl show был бы кстати, из писанини ничего не понятно
Anonymous
Manager "ptcp:6640:127.0.0.1" is_connected: true Bridge br-ex Controller "tcp:127.0.0.1:6633" fail_mode: secure Port phy-br-ex Interface phy-br-ex type: patch options: {peer=int-br-ex} Port "bond1.550" Interface "bond1.550" Port br-ex Interface br-ex type: internal Bridge br-tun Controller "tcp:127.0.0.1:6633" is_connected: true fail_mode: secure Port "gre-0a0a0a08" Interface "gre-0a0a0a08" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.8"} Port "gre-0a0a0a15" Interface "gre-0a0a0a15" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.21"} Port "gre-0a0a0a16" Interface "gre-0a0a0a16" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.22"} Port "gre-0a0a0a12" Interface "gre-0a0a0a12" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.18"} Port "gre-0a0a0a0f" Interface "gre-0a0a0a0f" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.15"} Port br-tun Interface br-tun type: internal Port "gre-0a0a0a0b" Interface "gre-0a0a0a0b" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.11"} Port "gre-0a0a0a11" Interface "gre-0a0a0a11" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.17"} Port "gre-0a0a0a0a" Interface "gre-0a0a0a0a" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.10"} Port "gre-0a0a0a0d" Interface "gre-0a0a0a0d" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.13"} Port "gre-0a0a0a17" Interface "gre-0a0a0a17" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.23"} Port "gre-0a0a0a06" Interface "gre-0a0a0a06" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.6"} Port "gre-0a0a1503" Interface "gre-0a0a1503" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.21.3"} Port "gre-0a0a0a09" Interface "gre-0a0a0a09" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.9"} Port patch-int Interface patch-int type: patch options: {peer=patch-tun} Port "gre-0a0a0a10" Interface "gre-0a0a0a10" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.16"} Port "gre-0a0a0a0c" Interface "gre-0a0a0a0c" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.12"} Port "gre-0a0a0a0e" Interface "gre-0a0a0a0e" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.14"}
Anonymous
Port "gre-0a0a0a07" Interface "gre-0a0a0a07" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.7"} Port "gre-0a0a1502" Interface "gre-0a0a1502" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.21.2"} Port "gre-0a0a0a13" Interface "gre-0a0a0a13" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.19"} Port "gre-0a0a0a14" Interface "gre-0a0a0a14" type: gre options: {df_default="true", in_key=flow, local_ip="10.10.21.1", out_key=flow, remote_ip="10.10.10.20"} Bridge br-int Controller "tcp:127.0.0.1:6633" is_connected: true fail_mode: secure Port "qr-9a52de9d-cd" tag: 3 Interface "qr-9a52de9d-cd" type: internal Port "qg-a143e642-e6" tag: 10 Interface "qg-a143e642-e6" type: internal Port "int-br-ex2" Interface "int-br-ex2" type: patch options: {peer="phy-br-ex2"} Port int-br-dmz Interface int-br-dmz type: patch options: {peer=phy-br-dmz} Port "ha-000a2879-3d" tag: 6 Interface "ha-000a2879-3d" type: internal Port "ha-33ab740b-e7" tag: 5 Interface "ha-33ab740b-e7" type: internal Port "ha-7f97735b-9e" tag: 8 Interface "ha-7f97735b-9e" type: internal Port "qg-65eeec71-12" tag: 10 Interface "qg-65eeec71-12" type: internal Port "tape2905cfb-19" tag: 2 Interface "tape2905cfb-19" type: internal Port patch-tun Interface patch-tun type: patch options: {peer=patch-int} Port "qr-57c92e8f-ce" tag: 1 Interface "qr-57c92e8f-ce" type: internal Port "tap429b3233-d1" tag: 4 Interface "tap429b3233-d1" type: internal Port "qg-37affc69-5b" tag: 10 Interface "qg-37affc69-5b" type: internal Port "qg-a571ca9f-78" tag: 9 Interface "qg-a571ca9f-78" type: internal Port int-br-ex Interface int-br-ex type: patch options: {peer=phy-br-ex} Port "ha-b3a68602-ca" tag: 7 Interface "ha-b3a68602-ca" type: internal Port "tap2b80decb-ca" tag: 1 Interface "tap2b80decb-ca" type: internal Port "tap31affc0a-3d" tag: 3 Interface "tap31affc0a-3d" type: internal Port "qr-226a87ef-5b" tag: 4 Interface "qr-226a87ef-5b" type: internal Port br-int Interface br-int type: internal Port "qr-692789c6-98" tag: 2 Interface "qr-692789c6-98" type: internal Bridge br-dmz Controller "tcp:127.0.0.1:6633" is_connected: true fail_mode: secure Port phy-br-dmz Interface phy-br-dmz type: patch options: {peer=int-br-dmz} Port "bond2" Interface "bond2" Port br-dmz Interface br-dmz type: internal Bridge "br-ex2" Controller "tcp:127.0.0.1:6633" is_connected: true fail_mode: secure Port "phy-br-ex2" Interface "phy-br-ex2" type: patch options: {peer="int-br-ex2"} Port "bon
Anonymous
d1.83" Interface "bond1.83" Port "br-ex2" Interface "br-ex2" type: internal ovs_version: "2.9.0"
Maxim
pastebin для слабаков, портянки удел отцов
NS 🇷🇺
один влан всунут в ex второй в ex2
NS 🇷🇺
и обе сети плоские со стороны стека должны быть
NS 🇷🇺
но я п сделал да и делаю по другому...
NS 🇷🇺
br-vlan, в него ваш bond а дальше уже VLAN сетоньки опенстеком напиливать
Anonymous
то есть, все же через flat уже не получится добавить вторую сеть?
Anonymous
если на уже текущую внешнюю сеть, которая flat переводить уже на vlan то это же будет простой?
Anonymous
у нас уже на этой сети 250 машин
Anonymous
((
NS 🇷🇺
то есть, все же через flat уже не получится добавить вторую сеть?
Получится. У нас так старые инсталляции работают
NS 🇷🇺
Самое просто в вашем случае в том же влан, что впихнут в brex подать ещё одну подсеть
Алексей [PEBHOCTb]
А сеть просто расширить нельзя? Почему 250 то?
Anonymous
@tamerlanabu будет жить. Поприветствуем!
Anonymous
А сеть просто расширить нельзя? Почему 250 то?
Расширяться не получится, сетями рулят сетевые админы, в свое время дали такую сеть /24, все что за ней тоже уже юзается вмварой или физическими серверами
Anonymous
Самое просто в вашем случае в том же влан, что впихнут в brex подать ещё одну подсеть
Я такой вариант сетевикам предлагал, просунуть ещё одну сеть в действующий влан, но грят - не можем, почему не объясняют
Алексей [PEBHOCTb]
не понимаю как одно взаимосвязкано с другим
Алексей [PEBHOCTb]
ну если расширение при планирвоании сети не предусмотрели, то сами конечно дураки
Anonymous
Получится. У нас так старые инсталляции работают
Я не могу просто понять только то, что пока мы не прописываем external2 в конфиге агента опенвсвитча в каталоге плагинов нейтрона, все работает, как только пропишем, старая сеть на этом бонду отваливается((
Anonymous
ну если расширение при планирвоании сети не предусмотрели, то сами конечно дураки
Почему же сразу дураки?)) Планировали, что как сеть закончится, на тот же бонд, что есть просто начнём уже подавать вланы, и уже создавать мосты в опенвсвитче с добавлением интерфейса по типу bond1.505, bond1.510 и тд
Алексей [PEBHOCTb]
эко вы извращаетесь
Anonymous
Никто не предполагал, что это не будет работать
Алексей [PEBHOCTb]
простых путей мы не ищем
NS 🇷🇺
эко вы извращаетесь
у нас сетевики с тами же подходам 1 влан - одна подсеть
Алексей [PEBHOCTb]
Алексей [PEBHOCTb]
но они же должны понимать что в общем случае это не так
Anonymous
Ок, если интересна предыстория, техдир просто вычитал слово опенстак и сказал ещё другому админу - хачу свой, две недели даю тебе делай, ну и парнишка сделал как смог по докам с опенстак орг, тогда ещё на релизе kilo
Anonymous
Тогда грамотно спланировать его, знаний увы не хватало, а потом все, что временное стало вечным и так и ушло в прод
Алексей [PEBHOCTb]
любая исторния про внедрение опенстек примерно так и начинается:D
и прод без тестирования на живую это вообще любимая тема
Алексей [PEBHOCTb]
главное колеса успеть на питстопе хотя бы на 2 гайки закрутить. остальное в процессе движения)))
Anonymous
и прод без тестирования на живую это вообще любимая тема
Тестировали)) посмотрели и - "та, все нормально", и давай садить туда приложухи для бизнеса, при чем это вот так решили сокращать расходы компании (на лицензиях вмваре)
Алексей [PEBHOCTb]
тут каждый второй по такому пути в опенстек пришел
Алексей [PEBHOCTb]
нет, ну я верю что есть люди с тестовыми стендами полноценными. ну не может же не быть такого, да?
Anonymous
В общем, получается сейчас один только сценарий этот бонд и сеть оставить как есть и добавить ещё карту, а на ней уже делать не flat, а в самом опенстаке через vlan
Anonymous
Раз других путей нет
Алексей [PEBHOCTb]
ну еще сетевики могу сделать две сети прозрачными друг на друга, если немного подумают. и сделать это у себя. но я смотрю они у тебя не очень старательные
Anonymous
Да им вообще просто пофигу(( а нагуглить почему такая ситуация происходит мне никак не удалось
NS 🇷🇺
народ тупой вопрос. если в кладу дате передают password плейнтекстом, то все ок. А если хешь через passwd то посасываю лапку. Куда копнуть? в логах клауда чет нихера не нашел
NS 🇷🇺
В код cloud-init
да вы прям Ко =)
NS 🇷🇺
Народ, ни у кого не прикопана рядом ссылка на багтрекер, когда у ВМ вовремя деплоя создаются два сетевых интерфейса вместо одного?
Arkadiy
А баг есть? Это вроде происходит при использовании retryfilter
NS 🇷🇺
А баг есть? Это вроде происходит при использовании retryfilter
ну это как бы и есть баг, его даже вроде правили. вот ток сейчас найти не могу. Одну нашел, но там с гленсом свяазно.
Arkadiy
У нас это связано с тем, что нова думает, что на хосте сильно больше свободной памяти, чем есть на часом деле, пытается завести там инстанс, а он не поднимается, с каждой новой попыткой rrtryfilter - новый дополнительный интерфейс
Arkadiy
Вообще похоже на баг, но я не смог найти
Arkadiy
Тоже митака, и похоже что это не пофиксили даже в квинсе
Arkadiy
Возникает только при высокой утилизации Клауда и потому что нова-шедулер чрезвычайно тупой
Anonymous
@kkukharuk будет жить. Поприветствуем!
Anonymous
Notification Bot будет жить. Поприветствуем!
Alexandr
Народ всем привет! Подскажите пожалуйста, можно ли машину с дисками мигрировать между проектами 1,2 , саму машину перенес снепшотом, а вот ее диски /u01 и /u02 никак не могу.
Pavel
создать передачу, принять передачу
Alexandr
ок, сейчас почитаю про это, спасибо !
Alexandr
почитав про трансфер я понял как создать трансфер, а как принять передачу в другом проекте?
NS 🇷🇺
Почитай дальше )
Алексей [PEBHOCTb]
там кнопочка принять. ид и строку авторизации вводишь и перелетает