@pro_openstack

Страница 100 из 117
Михаил
07.02.2017
14:57:56
Молодец, что отписываешься после решения проблемы)

Tverd
07.02.2017
14:58:23
Ну а как по другому... )

Михаил
07.02.2017
14:58:55
Находишь тему на форуме с описанием проблемы, а там "Пацаны у меня всё заработало"

например)

Google
Tverd
07.02.2017
15:00:22
проблема была в две стороны... с любой из нод на другую и обратно. Винда начинала тупить и только перезагрузка помогала. То смотришь на либвирте две одинаковых виртуалки на разных хостах, одна потушенная, другая в онлайне.

Сеть задумывалась на 2-3 минуты...

Александр
07.02.2017
15:02:53
Эм, а сеть какая? 1гб?

Tverd
07.02.2017
15:03:23
10гб

Александр
07.02.2017
15:03:41
ШТО!?!?!??!! 1400 мту для 10г?

Серьёзно?!

А было сколько?

Tverd
07.02.2017
15:04:16
ну да, пока в тестовом режиме, отлавливаем... будет 9к, но пока так

1500 было

Александр
07.02.2017
15:04:26
Эм, а 9к не пробовал?

А можешь по интерфейсу инфо скинуть сюда?

Artem
07.02.2017
15:04:56
а mtu на всех нодах одинаковое?

Google
Александр
07.02.2017
15:05:00
ifconfig или чо там

Tverd
07.02.2017
15:07:51
bond0.3016 Link encap:Ethernet HWaddr 02:53:a8:4a:6d:f0 inet addr:10.78.220.215 Bcast:10.78.220.255 Mask:255.255.255.0 inet6 addr: fe80::53:a8ff:fe4a:6df0/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1400 Metric:1 RX packets:1246209 errors:0 dropped:0 overruns:0 frame:0 TX packets:3635402 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:5172414081 (5.1 GB) TX bytes:4242782798 (4.2 GB)

на всех нодах

Александр
07.02.2017
15:08:08
Эм, может в бондах проблема?

Именно в самом бонде

У меня не бонды, бриджи норм работали

?

Ivan
07.02.2017
15:09:29
а это бонд из каких устройств ?

Tverd
07.02.2017
15:09:37
Ну бонды сами по себе работают нормально. Сеть обеспечивают. Есть еще на одной ноде LACP а на другой нет. На это еще грешим

Александр
07.02.2017
15:09:40
бонд это 2 сетевых интерфейса в 1

Эм,.. я хуй знает как правильно объяснить

Tverd
07.02.2017
15:10:39
бонд из двух сетевух

Ivan
07.02.2017
15:10:46
10gbe ?

Tverd
07.02.2017
15:10:53
потом на 2 влана... да на 10

Александр
07.02.2017
15:11:13
Такс

Стоп

Сек проверю

Ivan
07.02.2017
15:11:39
а кто-нить юзал mptcp для увеличения пропускной способности ?

всмысле совместно с ceph

Google
Александр
07.02.2017
15:12:33
А сервера в одной подсети?

У меня правда не убунту, но за тестирую

Хм,.. на бонде тоже бегает, туда-обратно

Проблема наверное в чём-то другом

Tverd
07.02.2017
15:13:44
да, в одной сервера, если у меня спрашивали

Александр
07.02.2017
15:13:48
Интересно даже стало

Так, надо вернуть обратно :D

Tverd
07.02.2017
15:14:30
всем спасибо, пойдем домой )

Александр
07.02.2017
15:14:48
А в логах окромя тех 3х строк ничего нет?

И в логах виртуалки

Tverd
07.02.2017
15:15:33
ну то что я показывал, в основном это... В логах виртуалки уже не посмотрим. Если всплывет такой проблем - скину

Александр
07.02.2017
15:16:09
Ага

и другой лог, системный

может там чего есть

который кернел

Александр
07.02.2017
15:23:36
@SinTeZoiD

У вас было такое?

@spuzirev

Google
Sergey
07.02.2017
15:24:36
Multipath? Нет

Александр
07.02.2017
15:24:52
А почему нет?

Не пробовал всмысле?

Sergey
07.02.2017
15:26:12
У меня l3 сети были с отключенным multipath. Его разве можно туда прикрутить не обеспечивая поддержку в самом сефе?

Александр
07.02.2017
15:26:31
Хуя вопросики ?

Sergey
07.02.2017
15:28:32
Ну это магией выглядит, если так

Александр
07.02.2017
15:28:33
Ну вообще там вроде L3 из каропки, на сколько я понимаю

Ivan
07.02.2017
15:29:06
так поддержка не нужна в цефе

Александр
07.02.2017
15:32:22
Ненене, там написано типа отдельно для ceph l3

Всмысле, оно поддерживает, но надо настроить

Михаил
07.02.2017
15:36:00
10г сеть лучше сделай на интерконнект цефа

Ilia
07.02.2017
17:29:56
10г сеть лучше сделай на интерконнект цефа
На гигабите даже не пытаться?

Михаил
07.02.2017
17:35:35
На гигабите даже не пытаться?
Лабу можно. Интерконнект к проду тоже можно попробовать, но вдумчиво, понимая тип нагрузки. А вот интерконнект между нодами цефа нужен 10г. Иначе ребаланс будет долгим и печальным

Pavel
07.02.2017
17:41:00
Лучше просто взять и посчитать, сколько будет ребаланс и сколько будет потолок между цефом и клиентом

Если устраивает - велкам

kay
08.02.2017
10:32:11
Коллеги, я понимаю, что это чятег про openstack, но всё же отважусь задать вопрос. Можно ли в openstack создать attacheable volume без cinder? Volume же создаётся под каждую виртуалку без cinder, значит должна быть возможность создавать его без отдельного хранилища. Пока у меня только вот такой результат: $ cinder list +--------------------------------------+--------+-------------+------+-------------+----------+-------------+ | ID | Status | Name | Size | Volume Type | Bootable | Attached to | +--------------------------------------+--------+-------------+------+-------------+----------+-------------+ | ae59dee1-e889-48bb-963d-1dfd904784ad | error | test | 10 | - | false | | +--------------------------------------+--------+-------------+------+-------------+----------+-------------+

Albert
08.02.2017
10:49:52
Итак, контролер упал, зато все компьют ноды остались рабочими. Но, все инстансы потеряли сеть. Сеть с инстансами вернулась когда контролер вернули. Что это может быть? Почему такая надобность в контролере для работы сети?

Tverd
08.02.2017
10:50:49
А на чем сеть? Linux bridge?

Albert
08.02.2017
10:50:55
Да

Пока седим на Митаке

Google
Nikita
08.02.2017
10:52:29
если сеть легаси, то это нормально поведение, если DVR то надо разбираться

Albert
08.02.2017
10:52:51
Что такое сеть легаси?

Tverd
08.02.2017
10:53:28
А шлюзом что является? Не сам контроллер?

Albert
08.02.2017
10:53:35
Когда все подымали, то подымали по официальным докам митаки + self service

Nikita
08.02.2017
10:54:47
Что такое сеть легаси?
тупые сеточки, когда весь трафик течет наружный через нетворк ноду

Albert
08.02.2017
10:56:15
А шлюзом что является? Не сам контроллер?
Сейчас с сетевой командой проверю

Походу да, он на контролере

Подскажите тогда как все настроить тогда

Буду благодарен

Вроде нашел: https://wiki.openstack.org/wiki/Neutron/DVR

Оно?

Nikita
08.02.2017
11:02:12
http://docs.openstack.org/liberty/networking-guide/scenario-dvr-ovs.html

хоть ссылка и на либерти, но на митаке тоже проверялось

Tverd
08.02.2017
11:03:56
В общем если контроллер шлюз и различные подсети для виртуалок, соответственно при отключении контроллера они не будут друг друга видеть. Если в одной подсети, то пофигу

Artem
08.02.2017
11:11:47
Как вариант несколько контроллеров и HA роутеры

kay
08.02.2017
12:30:57
По volume у кого-нибудь есть соображения?

Artem
08.02.2017
13:47:10
По volume у кого-нибудь есть соображения?
не понимаю вопроса- по сути ты на cinder можешь скормить локальную lvm vg и она по iscsi будет подключаться на compute ноды(хранилка не отдельная- все в рамказ ноды, где стоит cinder-volume)

kay
08.02.2017
13:47:34
у меня нет cinder host'а

у меня кактус под названием rackspace private cloud

Александр
08.02.2017
13:48:15
Это нормально в нашем не нормальном мире

Artem
08.02.2017
13:48:54
что есть cinder host? у тбея есть где запутсить cinder-volume и где будет lvm vg, которую можно пользовать как хочется?

* но естественно, если этот хост с cinder-volume упадет- то все виртуалки лягут по отвалу диска

Страница 100 из 117