@kubernetes_ru

Страница 576 из 958
Andrey
22.05.2018
14:38:18
А кто-нибудь подружил связку prometheus-operator + blackbox_exporter для чека произвольных http таргетов? Или для каждого сервиса создавать свой ServiceMonitor?

Вася
22.05.2018
14:58:51
Котоны, юзали такую штуковину http://docs.cilium.io/en/latest/ ? Есть ли подводные камни?

Andor
22.05.2018
15:23:35
Звучит хипстерно

Потом расскажешь

Google
Anton
22.05.2018
16:11:07
Товарищи, в поде нужен коннект на бд которая находится во вне, можно это както сделать без networkHost ?

Andrey
22.05.2018
16:12:08
По умолчанию у контейнеров же есть доступ в инет. А так можно через external service объявить (service + endpoints)

Anton
22.05.2018
16:21:55
По умолчанию у контейнеров же есть доступ в инет. А так можно через external service объявить (service + endpoints)
там не совсем инет, там интерфейс обеспечивающий доступ в определенную подсеть с котейнера она не пингуется

Andrey
22.05.2018
16:23:34
Вы понимаете, что это несколько иной кейс, чем просто «бд вовне»?

Anton
22.05.2018
16:24:29
Имел ввиду бд вне контейнера

вне кластерной адресации

Andrey
22.05.2018
16:24:52
Я привел для этого пример

Anton
22.05.2018
16:25:22
Да попробую external сервис, спасибо

Andrey
22.05.2018
16:25:39
По сути, сервис - это запись в правилах фаервола. У вас с хостовой машины можно достучаться до бд?

Andor
22.05.2018
16:26:05
https://kubernetes.io/docs/concepts/services-networking/service/#services-without-selectors

можно сделать сервис для внешнего адреса

Anton
22.05.2018
16:29:18
https://kubernetes.io/docs/concepts/services-networking/service/#services-without-selectors
Чет тупанул, получается как endpoint можно прописать внешний сервис

Google
Andor
22.05.2018
16:29:25
угу

Anton
22.05.2018
16:29:45
Спасибо

Dmitriy
22.05.2018
16:40:42
А есть ли какая-то возможность указать в дня куба домен, который должен смотреть на сервис?

Днс

Grigory
22.05.2018
16:46:30
внутренний? можно HostAliases добавить в манифест пода

Dmitriy
22.05.2018
16:48:42
внутренний? можно HostAliases добавить в манифест пода
Дык айпишник динамический, или я чего-то не понимаю?

А что за кейс? даже любопытно стало
Там хитро. Приходит запрос на прокси, надо спроксировать на джаббер, но по домену.

В общем очень не очевидная штука и много деталей

Легаси, потому вот так

Andrey
22.05.2018
16:52:32
Jabber - он внутри или снаружи? (Я так понимаю что снаружи?)

Dmitriy
22.05.2018
16:53:53
Внутри

Andrey
22.05.2018
16:54:24
Тааак, а чем тогда ingress не катит?

Dmitriy
22.05.2018
16:55:10
Нет ингресса снаружи

Придумал сделать nginx в том же поде и проксировать куда надо, но это как-то странно

Andrey
22.05.2018
16:57:08
У вас jabber наружу как торчит? ExternalIP?

Dmitriy
22.05.2018
17:03:15
Никак

Он сугубо подкапотный сервис

Andrey
22.05.2018
17:07:56
А та днс запись что создается для сервиса вас не устраивает, правильно?

Dmitriy
22.05.2018
18:01:06
Именно

Google
Andrey
22.05.2018
18:19:16
Ок, а что за прокся? Она где?

Dmitriy
22.05.2018
18:22:38
Xmpp bosh

Тоже внутри

Andrey
22.05.2018
18:26:30
Тогда то что вам предлагали выше: https://kubernetes.io/docs/concepts/services-networking/add-entries-to-pod-etc-hosts-with-host-aliases/

Dmitriy
22.05.2018
18:28:15
Айпи джаббер сервиса не статический же. Или я чего-то не понимаю?

Dmytro
22.05.2018
18:29:40
Dmitriy
22.05.2018
18:30:32
Хм. Вот этого не знал. Пороюсь. Спасибо

Dmytro
22.05.2018
18:31:14
https://kubernetes.io/docs/concepts/services-networking/service/#choosing-your-own-ip-address

Dmitriy
22.05.2018
18:33:22
Спасибо

Завтра попробую заиспользовать.

Anton
22.05.2018
19:33:40
вопрос по Kubespray. У меня вот такая нода в hosts.ini: api.k8s.example.com ansible_host=192.168.10.10 ip=10.135.10.10после того как кластер установился и сгенерился кубконфиг, я получаю такую ошибку: Unable to connect to the server: x509: certificate is valid for 10.135.10.10, 10.233.0.1, 127.0.0.1, not 192.168.10.10как мне добавить нужный ip адрес (желательно при установке)?

а, в кубконфиге было 10.135.10.10, я поменял его на 192.168.10.10, потому что это внешний ip адрес

Mikhail
23.05.2018
05:33:39
а, в кубконфиге было 10.135.10.10, я поменял его на 192.168.10.10, потому что это внешний ip адрес
у меня dynamic inventory, добавил строку в openssl.conf.j2 с атрибутом access_ip_v4

Дмитрий
23.05.2018
07:52:06
Кто нибудь сталкивался с такой ситуацией, когда некоторые поды могут уйти в пендинг на 2-3 минуты и потом вернуться?

Maksim
23.05.2018
08:12:22
Из состояние running они в pending могут уйти, только если умерла нода на которой они были, и то они тогда должны пройти через стади Lost

Alex Milushev
23.05.2018
08:13:07
Куда копать если регулярно поды становятся evicted и так и висят?

Рустамыч
23.05.2018
08:13:18
Могут ещё volume ждать, если он не готов то будет pending

Google
Дмитрий
23.05.2018
08:13:21
да, всё живо, всё работает

Я тут прочиал что может быть из-за etcd. Сейчас проверю

Dmitry
23.05.2018
08:30:09
коллеги, у кого-то есть опыт использования вот такой штуки? https://azure.microsoft.com/ru-ru/services/container-service/

насколько оно продакшн реди

Grigory
23.05.2018
08:42:07
пользовались март апрель, оно было абсолютно не продакшн реди; падало часто падало в том плане что время ответа от кубер апи было очень долгим (kct get pods -a мог занимать по 3 минуты). такое случалось без предупреждений пришлось остаться на ACS может что-то и поменялось, обещают, что скоро GA ну и больше пробелма была не в том, что падало, а в том, что "премиальный" сапорт не отвечал.

Дмитрий
23.05.2018
08:42:39
как такое может быть? 12T /var/lib/kubelet Когда диск всего на 50 гигов?

Mikhail
23.05.2018
08:44:03
Снапшоты?

Sergey
23.05.2018
08:44:26
виртуалка ж изнутри не должна видеть

Дмитрий
23.05.2018
08:46:25
вот в чём дело 119G /var/lib/kubelet/pods/954aff07-5dd1-11e8-835d-a0369fd82f1a/volumes/kubernetes.io~nfs

это nfs походу майнтится туда

Sergey
23.05.2018
08:46:53
но суммарно 12Т откуда)

Дмитрий
23.05.2018
08:47:12
ну там много всего)

Banschikov
23.05.2018
09:18:57
всем привет! Извините нуба за вопрос) Но может кто нибуть уже сталкивался с подобной задачей. Вообщем тикет от разработчиков выглядит так: Нужно найти БД в которой хранятся конфигурации параметров для запуска всех микросервисов в кластере. Нужно ее развернуть, рассмотреть решения, которые позволяют подставлять параметры в хелме при запуске, посмотреть решения для синхронизации параметров с репозиторием. Это вообще реализуемо?

Banschikov
23.05.2018
09:23:48
посмотреть решения для синхронизации параметров с репозиторием. тут непонятно
Насколько понимаю репозиторий с helm-charts. Так есть в БД держать значения параметров файла values из хелм чарта. Как то так)

Konstantin
23.05.2018
09:24:27
коллега сделал весьма удобный плагин для s3 https://github.com/hypnoglow/helm-s3

Google
Sergey
23.05.2018
09:26:12
они хотят редактировать через веб интерфейс параметры в базе и чтобы эти параметры потом менялись в чарте, который будет висеть в гитлабе? Не везет так не везет:)

Banschikov
23.05.2018
09:29:17
а почему именно база, в чем профит?
Вот тут уже для меня тоже загадка. Ну база в обстрактном значении. Может в этой роли выступать консул или etcd к примеру. Я как то сомневаюсь в надобности всего этого деяния. Думал может это популярное решение и есть уже готовые кейсы) поэтому и решил отписать сюда

Sergey
23.05.2018
09:30:27
тип надо чтобы все переменные всех сред касались? это ты хочешь сказать?

Banschikov
23.05.2018
09:33:59
тип надо чтобы все переменные всех сред касались? это ты хочешь сказать?
Если правильно понимаю тебя, то что-то вроде того.

Sergey
23.05.2018
09:36:03
Если правильно понимаю тебя, то что-то вроде того.
я бы на твоем месте переубеждал их если им надо чтобы не стопицот темплейтов городить а все из одного файла с параметрами раскидывалось, не знаю, может через NFS шарить, но явно лучше чем велоспипед со спицами костылями как база))

Sergey
23.05.2018
09:40:48
ну база темплейта

Banschikov
23.05.2018
09:41:16
Обычно параметры подставляются из values.yaml, а тут типа из БД

Sergey
23.05.2018
09:42:03
а потом они захотят, чтобы по раннеру врубался хельм который будет стучаться и забирать данные из базы чтобы потом задеплоить с теми параметрами? может проще пошарить))

Banschikov
23.05.2018
09:44:34
Sergey
23.05.2018
09:46:00
о господи)) не до бог) Ну тогда все врено, шарить один большой values.yaml) надеюсь не дойдет до этого)ээ
главное доступ не раздавать им туда один все захерит и все среды того...

сказать "я сделяль, но никого пипутю"

Banschikov
23.05.2018
09:46:42
?? Это понятно)

Andor
23.05.2018
09:48:06
ощущение что вы хотите менять параметры на лету, может какой-нибудь zookeeper/etc/consul для этого лучше подойдёт, чем кормить эти параметры в хельм?

и параметры шареные между сервисами передавать будет безгеморно имхо

Страница 576 из 958