@pro_openstack

Страница 47 из 117
Denis
22.11.2016
18:24:23
Всем, привет) А много кто тут уже поиграл с Kubernetes?

kay
22.11.2016
19:11:58
Я k8s поверх openstack запускаю

Denis
22.11.2016
19:12:47
Благородный дон :)

Google
Denis
22.11.2016
19:13:26
Есть какие нибудь проблемы? Как в целом впечатления от k8s?

kay
22.11.2016
19:14:09
K8s хорош для микросервисов. Я уже об этом тут недели две назад писал.

А вот os запускать поверх k8s может быть удобно для тех, у кого более монолитные сервисы и более классическая схема

Отличный пример где k8s пригодится - база neo4j

Бесплатная версия позволяет поднять всего одну базу. А если баз много, то приходится городить костыли, порты под каждую базу. Сложно мигрировать инстанс с одной ноды на другую и прочие прелести

Denis
22.11.2016
19:18:55
Отличный пример где k8s пригодится - база neo4j
Да вроде ребята из Percona писали недавно активно, что БД в Docker не стоит, а K8s - это оркестрация и слой управления над Docker, по сути.

kay
22.11.2016
19:19:03
А k8s плюс распределенное хранилище помогают этим роем управлять с достаточными удобствами

Percona много что пишет без конкретных графиков и аргументации.

Но доля правды в этом заявлении есть

Но neo4j это графовая база данных со своей спецификой

И я тебе выше описал причины почему её лучше запихнуть в k8s.

SQL базы уже из коробки поддерживают кластеризации, множество баз данных на одном инстансе и прочее. В бесплатной версии neo4j этого нет

Google
kay
22.11.2016
19:24:48
Или к примеру couchbase или redis. Запускал бы я её в k8s? Скорее нет чем да. Зависит от специфики.

Uncel
22.11.2016
19:25:06
Кластер есть в ent, если вас agpl устраивает в их трактовке

Но и он весьма ниочень

kay
22.11.2016
19:25:51
Выкинуть не получится. Т.к. продукт уже заточен под neo4j. Ent тоже не вариант, т.к. строго следуем лицензиям

А платить миллионы за лицензию компания пока не готова

Uncel
22.11.2016
19:26:32
Какой размер графа?

kay
22.11.2016
19:26:47
Небольшой

Но количество отдельных баз около 100

Serg
28.11.2016
12:04:34
Всем добрый день. Может кто-нибудь подскажет в чем может быть ошибка. Когда создаю инстанс OpenStack ругается - Security group not found for project

Serg
28.11.2016
12:06:56
Да я вроде бы в гугле не забанен, но не могу понять, где я накосячил

AnswerX
28.11.2016
12:12:25
ну мож не выдается секурити группа инстансу по дефолту?

должна быть дефолтная как бы с именем default

понятно что получается тавтология

но

Serg
28.11.2016
12:18:59
Она есть

в том то и дело, что он ругается, что дефолтная группа не найдена для этого проекта

Пробовал другую создать - все равно такая же ошибка

Roman
28.11.2016
12:19:45
в логи глянуть

Serg
28.11.2016
12:19:49
Такое ощущение, что с нейтроном где-то накосячил (

Google
Serg
28.11.2016
12:20:20
по логам nova-api именно это и пишет

Roman
28.11.2016
12:20:28
логи нейтрона

Владимир
28.11.2016
12:21:04
конфиг нейтрона проверь тогда. а так без логов сложно что-то говорить.

Serg
28.11.2016
12:22:22
в логах нейтрона везде 200 статусы

Ну то что json-ы бегают и все отлично...

Roman
28.11.2016
12:26:42
дебаг режим

еще можно попробовать nova boot с ключиком —debug запустить

Владимир
28.11.2016
12:28:26
у меня как-то была аналогичная проблема и все в нейтрон упиралось, но сейчас точно не вспомню к сожалению

Taki
28.11.2016
14:55:40
Добрый день. Может кто сталкивался с тем что при создании osd через ceph-deploy не создаются директории .../osd/ceph-xx, началось это после того как я попытался создать osd с помощью ceph-deploy указав журналом кусок рейда поверх ssd - ceph-deploy osd create ceph-node4:sdc:md127p1. Osd создается без ошибок, но не стартует.

Михаил
28.11.2016
15:09:24
а если делать через osd prepare?

Taki
28.11.2016
15:14:29
так же, создается без ошибок а директории нет, пробовал руками делать - не монтирует в них диски

Михаил
28.11.2016
15:17:43
права на папку у юзера есть?

Taki
28.11.2016
15:18:05
да, права ставил ceph:ceph

и такая ерунда по всем нодам стала, попробовал на старой ноде добавить osd без отдельного журнала - так же

Михаил
28.11.2016
15:21:19
а у тебя OSD видны?

или ты всё удалил?

ceph osd out OSD_ID ceph osd crush remove osd.OSD_ID ceph auth del osd.OSD_ID ceph osd rm OSD_ID

сделай по всем OSD

которые делал

у тебя же пустой кластер?)

Google
Taki
28.11.2016
15:23:23
не пустой)) хотел добавить еще сервер

Михаил
28.11.2016
15:23:41
тогда осторожно и нежно поудаляй новые осд)

которые ты добавил

Taki
28.11.2016
15:24:03
сейчас попробую, спасибо

Михаил
28.11.2016
15:24:14
пока не за что

Taki
28.11.2016
15:29:28
не-а, все так же, не создает директории

Михаил
28.11.2016
15:30:38
а в логих че?

Taki
28.11.2016
15:33:25
сделал еще раз то что выше - теперь директория появилась ?

А если через деплой делать с отдельным журналом то все повторяется. Спасибо, кажется все заработало ?

Taki
28.11.2016
15:43:46
Да, именно ceph auth del

Михаил
28.11.2016
15:44:11
ок

Albert
29.11.2016
16:10:21
Кто нибудь keystone к active directory подключал?

Старый
29.11.2016
16:25:41
Кто нибудь keystone к active directory подключал?
https://wiki.openstack.org/wiki/HowtoIntegrateKeystonewithAD

Кто нибудь keystone к active directory подключал?
http://redhat.slides.com/mlopes/integrate-active-directory-with-openstack-keystone

Кто нибудь keystone к active directory подключал?
у redhat очень хорошая ссылка

Кто нибудь keystone к active directory подключал?
https://access.redhat.com/documentation/en/red-hat-openstack-platform/9/paged/integrate-with-identity-service/chapter-1-active-directory-integration

Кто нибудь keystone к active directory подключал?
но это для redhat openstack. как в разных мирантисах и тп сделано не ясно

Albert
29.11.2016
17:16:54
В этом то и проблема, все под старые версии

Google
Albert
29.11.2016
17:17:08
С irc мне уже посоветовали вот это:

https://developer.ibm.com/opentech/2015/08/14/configuring-keystone-with-ibms-bluepages-ldap/

Danila
01.12.2016
10:19:55
Приветствую, как узнать наименее загруженную ноду по оперативке?

AnswerX
01.12.2016
10:25:36
если у тя балансер - подними тупо цирос и он упадет на менее загруженную ноду

Danila
01.12.2016
10:27:16
ну он упадет туда где 1гб будет ок

мне поболее мигрировать )))

AnswerX
01.12.2016
10:28:02
ну или напедаль скрипт типа - листани все ноды/возьми где-то список IP нод - по каждой ноде пройдись используя parallel и дерни ресурсы

чтоб ваще было очень быстро

и сохрани это все в файл

и посмотри аутпут

Alexandr
01.12.2016
10:30:58
мне поболее мигрировать )))
тебе надо размигрировать так, чтобы каждый инстанс попадал на наиболее свободную по памяти ноду? ram_weight_multiplier задери, scheduler и будет после взвешивания на такую ноду отправлять

Danila
01.12.2016
10:32:37
Спасибо попробую

Alexandr
01.12.2016
10:37:04
если просто узнать один раз, то или в horizon в админ вкладке hypervisors глянь, либо через cli openstack hypervisor list openstack hypervisor show там есть memory_mb, memory_mb_used

Страница 47 из 117