@pro_openstack

Страница 14 из 117
Дмитрий
16.08.2016
09:11:13
правильно! надо экономить калории!

Rinat
16.08.2016
09:11:42
это все виртуалбокс с сетью мудрит,

перезапустил все норм

Dmitry
16.08.2016
09:19:50
Надо было ставить докер

Google
Дмитрий
16.08.2016
09:29:56
есть подозрение, что эта проблема с сетью не связана скорее всего это баг в питоновской библиотеке, которая за взаимодействие раббитом отвечает это она залипает редкое явление, кстати

Rinat
16.08.2016
09:32:32
но проблему не решила ))) все равно NoNetworkAvailable: Unable to create the network. No tenant network is available for allocation.

а должно быть 4 по идее же, нода должна быть

Дмитрий
16.08.2016
09:45:35
а л3 какой?

да, и ноды нет

Rinat
16.08.2016
09:54:50
ну я выбрал провайдер networks

http://docs.openstack.org/mitaka/install-guide-ubuntu/neutron-controller-install-option1.html

[ml2] ... tenant_network_types =

может дело в этом?

# neutron net-create net1 Unable to create the network. No tenant network is available for allocation. Neutron server returns request_ids: ['req-dbb6974e-774f-4d67-bad6-dcdd01db58cf'] root@vagrant-ubuntu-trusty-64:~#

Дмитрий
16.08.2016
09:58:56
возможно

tenant_network_types = vlan,vxlan

http://docs.openstack.org/mitaka/networking-guide/scenario-classic-lb.html

Google
Rinat
16.08.2016
11:51:53
чет переделал на external provider + vlan

сеть создалась

Дмитрий
16.08.2016
11:53:18
а, так речь шла про провайдер нетворк! миль пардон, затупил

Rinat
16.08.2016
11:53:38
ну ошибка про одно))

я нуб еще в опенстеке

а можно не используя влан сеть поднять?

NoValidHost: No valid host was found. There are not enough hosts available. я так понимаю эта ошибка может с чем угодно быть связана?

Дмитрий
16.08.2016
13:39:03
на нове нужно включить дебаг и посмотреть на что именно будет ругаться шедулер в логи

Rinat
16.08.2016
13:44:20
проблема в сети короче ))

Binding failed for port 75068bd6-8f9b-40f8-a736-edc4eb232e82, please check neutron logs for more information.\n'] 2016-08-16 13:25:47.537 1275 WARNING nova.scheduler.utils [req-fc74bcf2-6d64-4233-831e-b7dea9df8e57 d73f47c8d80344a2b59b1dd5b8306a84 3575b0e451394875a674dea809b121c1 - - -] Failed to compute_task_build_instances: No valid host was found. There are not enough hosts available.

этот квест прошел) заново создал сетку

AKHV
18.08.2016
08:24:36
коллеги, всем привет. расскажите у кого какие бэкенды циндера используются на продакшн системах?

у нас опыт с EMC VNX, Hitachi HUS110, NFS, ceph

из найденных косяков - нельзя диски больше терабайта на nfs, нет поддержки снэпшотов на nfs (хотя доки уверяют что есть, посмотрели код - to be done...)

Hutachi HUS110 циндер драйвер вообще только из под админа заходит, и пока циндер что-то делает, никто из админов схд не может зайти, так устроена железка(

пока только с vnx полет нормальный

но очень долгое время создания вольюма из снапшота - макс 35 мб\с и это захардкожено в железке, больше толкьо принудительно повысить проиртет но тогда риск затронуть другие луны по перфомансу

Pavel
18.08.2016
09:16:47
пробовал vmax, vnx тоже, ceph

еще несколько схд ниже уровнем

типа евы

Google
Pavel
18.08.2016
09:17:34
3par

AKHV
18.08.2016
10:08:01
мы кстати еще довольно долго жили на sharedLVM - драйвер был от кого-то из хитачи, но перестал развиваться со времен kilo. а жаль, был хороший вариант по подключению любых FC стороджей

Pavel
18.08.2016
10:17:00
так мы на нем до сих пор живем)

оно глючное, медленное, но в принципе надежное и гибкое

AKHV
18.08.2016
10:33:10
И у нас пара площадок осталась, в очереди на обновление. А на какой версии?

Paul
18.08.2016
10:33:20
коллеги, внезапный вопрос - можно ли заставить работать openstack с общим LVM? у меня есть хранилище, которое можно подключать ко всем compute-нодам сразу, не вижу смысла подключать одну storage-ноду и гонять траф дважды (DS -> storage node -> compute node)

AKHV
18.08.2016
10:34:00
Ну вот собственно shared lvm и есть) только нужно руками его тащить на новые версии

Paul
18.08.2016
10:34:52
если поделитесь ссылкой в документации - буду очень благодарен

AKHV
18.08.2016
10:35:49
Ок, позже пришлю. Но если нет своих разрабов кто возродит этот драйвер и будет дальше комитить, надо дважды подумать тащить его или нет

Paul
18.08.2016
10:36:10
если никак - то никак. Я через стораджи буду гонять, у меня там интерконнект 10ге

Albert
22.08.2016
12:32:58
Есть ли что то наподобии vmware drs под стак?

Alexandr
22.08.2016
12:33:37
AKHV
22.08.2016
12:33:54
ну и тионикс модули

Albert
22.08.2016
12:36:01
Спс!

Интересно, а кто нибудь уже использует это у себя?

Alexander
22.08.2016
13:01:25
В продакшен? Не

В Турции в одном из институтов тестят

В интел тестят

Alexandr
22.08.2016
13:01:51
В продакшен? Не
Это про вотчер :)

Google
Alexander
22.08.2016
13:01:56
В b<>com тестят

+1^

По вотчеру готов в личке поговорить

Albert
22.08.2016
13:04:19
Да, я про вотчер спрашивал

Новые машины получают автоматом в /etc/resolv.conf домен. Как мне *добавить* еще один домен в список? Нашел только как главный домен поменять, но это не то что нужно.

Juriy
31.08.2016
14:05:30
http://cloudinit.readthedocs.io/en/latest/topics/examples.html#configure-an-instances-resolv-conf

оно?

Albert
31.08.2016
15:46:52
cloud init..

Я думал можно через стак

Ладно, подкручу

спс

Serg
01.09.2016
07:15:07
Все добрый день. Подскажите, если хранилище подключено по iscsi, то openstack его как блочное использует или кластерную фс развертывает

John
01.09.2016
07:17:37
Добрый день, использует как блочное, но сперва на нем должен появится lvm

Serg
01.09.2016
07:22:09
почему сначала должен lvm?

Страница 14 из 117