
Roman
22.11.2016
12:45:50

Denis
22.11.2016
18:24:23
Всем, привет) А много кто тут уже поиграл с Kubernetes?

kay
22.11.2016
19:11:58
Я k8s поверх openstack запускаю

Denis
22.11.2016
19:12:47
Благородный дон :)

Google

Denis
22.11.2016
19:13:26
Есть какие нибудь проблемы? Как в целом впечатления от k8s?

kay
22.11.2016
19:14:09
K8s хорош для микросервисов. Я уже об этом тут недели две назад писал.
А вот os запускать поверх k8s может быть удобно для тех, у кого более монолитные сервисы и более классическая схема
Отличный пример где k8s пригодится - база neo4j
Бесплатная версия позволяет поднять всего одну базу. А если баз много, то приходится городить костыли, порты под каждую базу. Сложно мигрировать инстанс с одной ноды на другую и прочие прелести

Denis
22.11.2016
19:18:55

kay
22.11.2016
19:19:03
А k8s плюс распределенное хранилище помогают этим роем управлять с достаточными удобствами
Percona много что пишет без конкретных графиков и аргументации.
Но доля правды в этом заявлении есть
Но neo4j это графовая база данных со своей спецификой
И я тебе выше описал причины почему её лучше запихнуть в k8s.
SQL базы уже из коробки поддерживают кластеризации, множество баз данных на одном инстансе и прочее. В бесплатной версии neo4j этого нет

Uncel
22.11.2016
19:24:43

Google

kay
22.11.2016
19:24:48
Или к примеру couchbase или redis. Запускал бы я её в k8s? Скорее нет чем да. Зависит от специфики.

Uncel
22.11.2016
19:25:06
Кластер есть в ent, если вас agpl устраивает в их трактовке
Но и он весьма ниочень

kay
22.11.2016
19:25:51
Выкинуть не получится. Т.к. продукт уже заточен под neo4j. Ent тоже не вариант, т.к. строго следуем лицензиям
А платить миллионы за лицензию компания пока не готова

Uncel
22.11.2016
19:26:32
Какой размер графа?

kay
22.11.2016
19:26:47
Небольшой
Но количество отдельных баз около 100

Serg
28.11.2016
12:04:34
Всем добрый день. Может кто-нибудь подскажет в чем может быть ошибка. Когда создаю инстанс OpenStack ругается - Security group not found for project

Старый
28.11.2016
12:05:39

Serg
28.11.2016
12:06:56
Да я вроде бы в гугле не забанен, но не могу понять, где я накосячил

AnswerX
28.11.2016
12:12:25
ну мож не выдается секурити группа инстансу по дефолту?
должна быть дефолтная как бы с именем default
понятно что получается тавтология
но

Serg
28.11.2016
12:18:59
Она есть
в том то и дело, что он ругается, что дефолтная группа не найдена для этого проекта
Пробовал другую создать - все равно такая же ошибка

Roman
28.11.2016
12:19:45
в логи глянуть

Serg
28.11.2016
12:19:49
Такое ощущение, что с нейтроном где-то накосячил (

Google

Serg
28.11.2016
12:20:20
по логам nova-api именно это и пишет

Roman
28.11.2016
12:20:28
логи нейтрона

Владимир
28.11.2016
12:21:04
конфиг нейтрона проверь тогда. а так без логов сложно что-то говорить.

Serg
28.11.2016
12:22:22
в логах нейтрона везде 200 статусы
Ну то что json-ы бегают и все отлично...

Roman
28.11.2016
12:26:42
дебаг режим
еще можно попробовать nova boot с ключиком —debug запустить

Владимир
28.11.2016
12:28:26
у меня как-то была аналогичная проблема и все в нейтрон упиралось, но сейчас точно не вспомню к сожалению

Taki
28.11.2016
14:55:40
Добрый день. Может кто сталкивался с тем что при создании osd через ceph-deploy не создаются директории .../osd/ceph-xx, началось это после того как я попытался создать osd с помощью ceph-deploy указав журналом кусок рейда поверх ssd - ceph-deploy osd create ceph-node4:sdc:md127p1. Osd создается без ошибок, но не стартует.

Михаил
28.11.2016
15:09:24
а если делать через osd prepare?

Taki
28.11.2016
15:14:29
так же, создается без ошибок а директории нет, пробовал руками делать - не монтирует в них диски

Михаил
28.11.2016
15:17:43
права на папку у юзера есть?

Taki
28.11.2016
15:18:05
да, права ставил ceph:ceph
и такая ерунда по всем нодам стала, попробовал на старой ноде добавить osd без отдельного журнала - так же

Михаил
28.11.2016
15:21:19
а у тебя OSD видны?
или ты всё удалил?
ceph osd out OSD_ID
ceph osd crush remove osd.OSD_ID
ceph auth del osd.OSD_ID
ceph osd rm OSD_ID
сделай по всем OSD
которые делал
у тебя же пустой кластер?)

Google

Taki
28.11.2016
15:23:23
не пустой)) хотел добавить еще сервер

Михаил
28.11.2016
15:23:41
тогда осторожно и нежно поудаляй новые осд)
которые ты добавил

Taki
28.11.2016
15:24:03
сейчас попробую, спасибо

Михаил
28.11.2016
15:24:14
пока не за что

Taki
28.11.2016
15:29:28
не-а, все так же, не создает директории

Михаил
28.11.2016
15:30:38
а в логих че?

Taki
28.11.2016
15:33:25
сделал еще раз то что выше - теперь директория появилась ?
А если через деплой делать с отдельным журналом то все повторяется. Спасибо, кажется все заработало ?

Михаил
28.11.2016
15:42:12

Taki
28.11.2016
15:43:46
Да, именно ceph auth del

Михаил
28.11.2016
15:44:11
ок

Albert
29.11.2016
16:10:21
Кто нибудь keystone к active directory подключал?

Старый
29.11.2016
16:25:41

Albert
29.11.2016
17:16:54
В этом то и проблема, все под старые версии

Google

Albert
29.11.2016
17:17:08
С irc мне уже посоветовали вот это:
https://developer.ibm.com/opentech/2015/08/14/configuring-keystone-with-ibms-bluepages-ldap/

Danila
01.12.2016
10:19:55
Приветствую, как узнать наименее загруженную ноду по оперативке?

AnswerX
01.12.2016
10:25:36
если у тя балансер - подними тупо цирос и он упадет на менее загруженную ноду

Danila
01.12.2016
10:27:16
ну он упадет туда где 1гб будет ок
мне поболее мигрировать )))

AnswerX
01.12.2016
10:28:02
ну или напедаль скрипт типа
- листани все ноды/возьми где-то список IP нод
- по каждой ноде пройдись используя parallel и дерни ресурсы
чтоб ваще было очень быстро
и сохрани это все в файл
и посмотри аутпут

Alexandr
01.12.2016
10:30:58
мне поболее мигрировать )))
тебе надо размигрировать так, чтобы каждый инстанс попадал на наиболее свободную по памяти ноду? ram_weight_multiplier задери, scheduler и будет после взвешивания на такую ноду отправлять

Danila
01.12.2016
10:32:37
Спасибо попробую

Alexandr
01.12.2016
10:37:04
если просто узнать один раз, то или в horizon в админ вкладке hypervisors глянь, либо через cli
openstack hypervisor list
openstack hypervisor show
там есть memory_mb, memory_mb_used