![](http://files.telegrammy.net/img2/t_logo.png)
Дмитрий
16.08.2016
09:11:13
правильно! надо экономить калории!
![](http://files.telegrammy.net/img2/10/10290.jpg)
Rinat
16.08.2016
09:11:42
это все виртуалбокс с сетью мудрит,
перезапустил все норм
![](http://files.telegrammy.net/img2/9/9218.jpg)
Dmitry
16.08.2016
09:19:50
Надо было ставить докер
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/t_logo.png)
Дмитрий
16.08.2016
09:29:56
есть подозрение, что эта проблема с сетью не связана
скорее всего это баг в питоновской библиотеке, которая за взаимодействие раббитом отвечает
это она залипает
редкое явление, кстати
![](http://files.telegrammy.net/img2/10/10290.jpg)
Rinat
16.08.2016
09:32:32
но проблему не решила ))) все равно NoNetworkAvailable: Unable to create the network. No tenant network is available for allocation.
а должно быть 4 по идее же, нода должна быть
![](http://files.telegrammy.net/img2/t_logo.png)
Дмитрий
16.08.2016
09:45:35
а л3 какой?
да, и ноды нет
![](http://files.telegrammy.net/img2/10/10290.jpg)
Rinat
16.08.2016
09:54:50
ну я выбрал провайдер networks
http://docs.openstack.org/mitaka/install-guide-ubuntu/neutron-controller-install-option1.html
[ml2]
...
tenant_network_types =
может дело в этом?
# neutron net-create net1
Unable to create the network. No tenant network is available for allocation.
Neutron server returns request_ids: ['req-dbb6974e-774f-4d67-bad6-dcdd01db58cf']
root@vagrant-ubuntu-trusty-64:~#
![](http://files.telegrammy.net/img2/t_logo.png)
Дмитрий
16.08.2016
09:58:56
возможно
tenant_network_types = vlan,vxlan
http://docs.openstack.org/mitaka/networking-guide/scenario-classic-lb.html
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/10/10290.jpg)
Rinat
16.08.2016
11:51:53
чет переделал на external provider + vlan
сеть создалась
![](http://files.telegrammy.net/img2/t_logo.png)
Дмитрий
16.08.2016
11:53:18
а, так речь шла про провайдер нетворк!
миль пардон, затупил
![](http://files.telegrammy.net/img2/10/10290.jpg)
Rinat
16.08.2016
11:53:38
ну ошибка про одно))
я нуб еще в опенстеке
а можно не используя влан сеть поднять?
NoValidHost: No valid host was found. There are not enough hosts available.
я так понимаю эта ошибка может с чем угодно быть связана?
![](http://files.telegrammy.net/img2/t_logo.png)
Дмитрий
16.08.2016
13:39:03
на нове нужно включить дебаг и посмотреть на что именно будет ругаться шедулер в логи
![](http://files.telegrammy.net/img2/10/10290.jpg)
Rinat
16.08.2016
13:44:20
проблема в сети короче ))
Binding failed for port 75068bd6-8f9b-40f8-a736-edc4eb232e82, please check neutron logs for more information.\n']
2016-08-16 13:25:47.537 1275 WARNING nova.scheduler.utils [req-fc74bcf2-6d64-4233-831e-b7dea9df8e57 d73f47c8d80344a2b59b1dd5b8306a84 3575b0e451394875a674dea809b121c1 - - -] Failed to compute_task_build_instances: No valid host was found. There are not enough hosts available.
этот квест прошел) заново создал сетку
![](/img/link.jpg)
![](http://files.telegrammy.net/img2/t_logo.png)
AKHV
18.08.2016
08:24:36
коллеги, всем привет. расскажите у кого какие бэкенды циндера используются на продакшн системах?
у нас опыт с EMC VNX, Hitachi HUS110, NFS, ceph
из найденных косяков - нельзя диски больше терабайта на nfs, нет поддержки снэпшотов на nfs (хотя доки уверяют что есть, посмотрели код - to be done...)
Hutachi HUS110 циндер драйвер вообще только из под админа заходит, и пока циндер что-то делает, никто из админов схд не может зайти, так устроена железка(
пока только с vnx полет нормальный
но очень долгое время создания вольюма из снапшота - макс 35 мб\с и это захардкожено в железке, больше толкьо принудительно повысить проиртет но тогда риск затронуть другие луны по перфомансу
![](http://files.telegrammy.net/img2/51/51604.jpg)
Pavel
18.08.2016
09:16:47
пробовал vmax, vnx тоже, ceph
еще несколько схд ниже уровнем
типа евы
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/51/51604.jpg)
Pavel
18.08.2016
09:17:34
3par
![](http://files.telegrammy.net/img2/t_logo.png)
AKHV
18.08.2016
10:08:01
мы кстати еще довольно долго жили на sharedLVM - драйвер был от кого-то из хитачи, но перестал развиваться со времен kilo. а жаль, был хороший вариант по подключению любых FC стороджей
![](http://files.telegrammy.net/img2/51/51604.jpg)
Pavel
18.08.2016
10:17:00
так мы на нем до сих пор живем)
оно глючное, медленное, но в принципе надежное и гибкое
![](http://files.telegrammy.net/img2/t_logo.png)
AKHV
18.08.2016
10:33:10
И у нас пара площадок осталась, в очереди на обновление. А на какой версии?
![](http://files.telegrammy.net/img2/10/10132.jpg)
Paul
18.08.2016
10:33:20
коллеги, внезапный вопрос - можно ли заставить работать openstack с общим LVM? у меня есть хранилище, которое можно подключать ко всем compute-нодам сразу, не вижу смысла подключать одну storage-ноду и гонять траф дважды (DS -> storage node -> compute node)
![](http://files.telegrammy.net/img2/t_logo.png)
AKHV
18.08.2016
10:34:00
Ну вот собственно shared lvm и есть) только нужно руками его тащить на новые версии
![](http://files.telegrammy.net/img2/10/10132.jpg)
Paul
18.08.2016
10:34:52
если поделитесь ссылкой в документации - буду очень благодарен
![](http://files.telegrammy.net/img2/t_logo.png)
AKHV
18.08.2016
10:35:49
Ок, позже пришлю. Но если нет своих разрабов кто возродит этот драйвер и будет дальше комитить, надо дважды подумать тащить его или нет
![](http://files.telegrammy.net/img2/10/10132.jpg)
Paul
18.08.2016
10:36:10
если никак - то никак. Я через стораджи буду гонять, у меня там интерконнект 10ге
![](http://files.telegrammy.net/img2/6/6692.jpg)
Albert
22.08.2016
12:32:58
Есть ли что то наподобии vmware drs под стак?
![](http://files.telegrammy.net/img2/21/21891.jpg)
Alexandr
22.08.2016
12:33:37
![](http://files.telegrammy.net/img2/t_logo.png)
AKHV
22.08.2016
12:33:54
ну и тионикс модули
![](http://files.telegrammy.net/img2/6/6692.jpg)
Albert
22.08.2016
12:36:01
Спс!
Интересно, а кто нибудь уже использует это у себя?
![](http://files.telegrammy.net/img2/51/51582.jpg)
Alexander
22.08.2016
13:01:25
В продакшен? Не
В Турции в одном из институтов тестят
В интел тестят
![](http://files.telegrammy.net/img2/21/21891.jpg)
Alexandr
22.08.2016
13:01:51
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/51/51582.jpg)
Alexander
22.08.2016
13:01:56
В b<>com тестят
+1^
По вотчеру готов в личке поговорить
![](http://files.telegrammy.net/img2/6/6692.jpg)
Albert
22.08.2016
13:04:19
Да, я про вотчер спрашивал
Новые машины получают автоматом в /etc/resolv.conf домен. Как мне *добавить* еще один домен в список? Нашел только как главный домен поменять, но это не то что нужно.
![](http://files.telegrammy.net/img2/9/9828.jpg)
Juriy
31.08.2016
14:05:30
http://cloudinit.readthedocs.io/en/latest/topics/examples.html#configure-an-instances-resolv-conf
оно?
![](http://files.telegrammy.net/img2/6/6692.jpg)
Albert
31.08.2016
15:46:52
cloud init..
Я думал можно через стак
Ладно, подкручу
спс
![](http://files.telegrammy.net/img2/9/9576.jpg)
Serg
01.09.2016
07:15:07
Все добрый день. Подскажите, если хранилище подключено по iscsi, то openstack его как блочное использует или кластерную фс развертывает
![](http://files.telegrammy.net/img2/t_logo.png)
John
01.09.2016
07:17:37
Добрый день, использует как блочное, но сперва на нем должен появится lvm
![](http://files.telegrammy.net/img2/9/9576.jpg)
Serg
01.09.2016
07:22:09
почему сначала должен lvm?