
Ivan
03.07.2018
08:38:21

Andrey
03.07.2018
08:38:50
netcat

bebebe
03.07.2018
08:38:57
@beatlejyse Иван приветствую, как дела? все там же работаете? :)

Ivan
03.07.2018
08:39:56

Google

bebebe
03.07.2018
08:40:07

Ivan
03.07.2018
08:42:05
Дела норм. Кластер собрал, мультимастер сделал, RBAC включил. Уже больше 4 мес. на проде живём.
С Ceph-ом пока проблемы ))

bebebe
03.07.2018
08:58:52
https://cloudplatform.googleblog.com/2018/07/kubernetes-1-11-a-look-from-inside-Google.html?m=1

Stas
03.07.2018
09:14:45
Народ, видел, что есть люди, которые используют kube-router, а есть те, кто его попробовали/знают что это, но все равно остались/вернулись на Calico+ kube-proxy? Читаю доки и конфиги не могу понять где подвох

Vadim
03.07.2018
09:42:27
https://gravitational.com/blog/kubernetes-and-offline-etcd-upgrades/

noname
03.07.2018
09:49:12
поставил на ubuntu 16 kuber 1.11 в кластере мастер+слэйв. поставил хэлм но при любой команде хэлма вылетает ошибка:
helm list
Error: forwarding ports: error upgrading connection: unable to upgrade connection: pod does not exist
кто знает в чем пробелма?

Линник
03.07.2018
09:52:43
tiller был установлен?

noname
03.07.2018
09:53:14
да контейнер запущен без проблем на мастере

Dmitriy
03.07.2018
10:03:25
Сегодня поднял 1.11 с фаннель, задеплоил руками нжинкс, но вот нодепорт так и не выбросился. И не могу понять почему.

noname
03.07.2018
10:04:35

Dmitriy
03.07.2018
10:05:07
Вечером буду ещё ковыряться. Есть два подозрения. 18.04 бубунта или таки 1.11. Тот же сетап на 16.04 и 1.9 нормально летел

kvaps
03.07.2018
10:06:18
Народ, видел, что есть люди, которые используют kube-router, а есть те, кто его попробовали/знают что это, но все равно остались/вернулись на Calico+ kube-proxy? Читаю доки и конфиги не могу понять где подвох
У меня в деве развернут, но в прод пока не хочу, причина не сколько в нем, а скорее в том что мне не нравится идея ассигнить podCIDR на ноду, без возможности его потом поменять

Stas
03.07.2018
10:07:34
это ограничение бриджового cni плагина?

Google

kvaps
03.07.2018
10:07:45
Использую romana, она ассигнит рейнджи автоматически
нет, это ограничение kubernetes-api
https://github.com/kubernetes/kubernetes/issues/63390
в случае с flannel будет та же проблема
тем не менее ipvs режим для сервисов можно включить и в kube-proxy

Алексей
03.07.2018
10:15:49
кстати ipvs режим ктонить включал?

Stas
03.07.2018
10:17:18
Я понимаю, что можно сделать romana+kube-proxy IPVS + metalLB + отдельный snat + еще много чего интересного. Я не понимаю зачем это делать если есть kube-router который по докам умеет все это делать сразу - вот и спрашиваю в чем подвох

Алексей
03.07.2018
10:18:10
хз
использую kube-router + keepalive для переброски випов
полет вроде нормлаьный

kvaps
03.07.2018
10:21:53

Алексей
03.07.2018
10:22:29
в iptables оно чтонить пишет?
и как externalIP выглядит, аналогично как и в kube-router?
лабы сейчас нет, демонтировал, проверить не могу.

kvaps
03.07.2018
10:24:19
хороший вопрос, могу сча проверить

Алексей
03.07.2018
10:32:07
Коллеги, кто какой редис с HA использует в кубернете?

Victor
03.07.2018
10:45:57
Привет всем! Есть такой вопросец по k8s. С выходом 1.11, стандартный внутренний клауд провайдер для OpenStack был помечен, как deprecated. С рекомендацией использовать --cloud-provider=external. Был найден репозиторий на гитхабе kubernetes/cloud-provider-openstack
с максимально невнятной документацией. Кто-либо знает, как завести эту сотону? Просто, запускаю кублеты с --cloud-provider=external и добавляю cloudProvider в конфигурационный ямл для kubeadm? Их дока openstack-kubernetes-integration-options.md прямо противоречит официальному мануалу куба (запускаем только кублеты с --cloud-provider=external vs запускаем все бинари с --cloud-provider=external)

Anton
03.07.2018
10:46:23
бойс, а есть кто на EKS сидит(уже?)

Banschikov
03.07.2018
10:58:17

kvaps
03.07.2018
10:58:47
плюс kube-proxy добавляет чет в iptables, да

Алексей
03.07.2018
10:59:39
хм
по интерфейсам мож наоборот?
а пример того что в iptables добавляется можешь показать?

Google

kvaps
03.07.2018
11:00:27
https://www.diffchecker.com/Y8j50XF0

Алексей
03.07.2018
11:02:40
судя по всему только harpin правила добавляет
в общем тоже самое что в kube-router
только там это если в конфиге укажешь
lvs только в masq режиме?

kvaps
03.07.2018
11:04:13
вроде да, я ниче не менял

Алексей
03.07.2018
11:04:51
понятно, спасибо за инфу

kvaps
03.07.2018
11:05:28
да нз, самому интересно было :)

Denis
03.07.2018
11:07:13
Всем привет опять ) вопрос про между VPC connection . есть два peered VPC , нужно как то из НЕ куб аппликации достучаться до POD_a который бежит в кластере , сейчас делаю это через External endpoints(ELB) но не уверен что это правильно , тем более наружу сервис експозить не хочется ? . Посоветуйте пжлста как разговаривать с сервисами бегущими в кубе

Andor
03.07.2018
11:07:52
это нормально
и ELB не обязательно наружу смотрит

Denis
03.07.2018
11:08:22
ну он экстернал с какойто дефолтной SG
кто знает УРЛу может подергать сервис за всякое )

Alexey
03.07.2018
11:10:25
Я всегда делаю через ingress, это зашквар? (если приватный сервис, то ограничение по ip или токенам)
Ходить на ноды открывать порты же нужно с external endpoints?

Denis
03.07.2018
11:12:21
ну поидее если это пирд впс я могу наружу не выходить
но интернас днс куба я резолвить не научился

Alexey
03.07.2018
11:14:53
Я больше просто интересовался "когда мне следует отказаться от ingress", везде сую его.
Denis почему в вашем случае нельзя делать ingress?

Andrey
03.07.2018
11:15:31
Denis
kube-dns вывалите наружу. И внешние запросы должны резолв через него делать, а потом ходить через локалку в peered VPC.

ptchol
03.07.2018
11:18:53
Ребят, я вчера спрашивал про node-labels и kubespray, они не сетились у меня.
На всякий случай мож кому полезно будет.
Дело в том что kubespray _только_ меняет параметр --node-labels для kubelet, но он работает только когда нода джойнится к кластеру, поэтому запускай не запускай ничо и не поменяется )
Вариант тока удалять ноду из кластера и обратно бутстрапить или ручками через kubectl labels node

Denis
03.07.2018
11:19:25

Google

Alexey
03.07.2018
11:20:21
deployment - service - ingress
ingress контроллер смотрит на ingress ресурсы и пишет конфиг для nginx/haproxy/traefik (ingress контроллер какой хочешь)

Denis
03.07.2018
11:21:26
ну опять таки - external access to the services in a cluster

Alexey
03.07.2018
11:21:38
ingress можно сделать локальный

Denis
03.07.2018
11:21:42
хочется наружу вообще не вылазить
ага

Admin
ERROR: S client not available

Denis
03.07.2018
11:21:50
вот интересно уже

Alexey
03.07.2018
11:22:53
я насколько понимаю ingress это путь от внешней сети к кластеру. Какая внешняя сеть будет не так важно. Народ меня поправит?
https://github.com/kubernetes/charts/tree/master/stable/nginx-ingress
controller.hostNetwork оно же?

Denis
03.07.2018
11:24:24
а если оба ВПС шэрят 1 Hosted zones в route53 , сам route53 ни как не заюзать
так все вроде там же нашел - AWS route53-mapper
спс буду копать

Anton
03.07.2018
11:33:29

Denis
03.07.2018
11:46:09
кстати про наружу-если он деплоится в интернал сабнетах , наружу опять таки через ELB?

Andrey
03.07.2018
12:04:18
привет! Как достать логи из свалившегося деплоймента? Уточняю
1) делаю деплоймент через set image
2) жду rollout status
3) если свалилось, делаю rollout undo
вот между 2 и 3 мне надо программно (ну то есть не руками буду kubectl запускать) взять логи свалившегося пода (describe+logs). Проблема в том, что я не знаю, как мне определить какой под смотреть

Anton
03.07.2018
12:08:32
предположу что нужно в деплойменте понять какой репликасет создался и дергать логи из подов, которые ему принадлежат
но наверное эту задачу решает глобальный сбор логов контейнеров, нет?

Andrey
03.07.2018
12:11:47
глобального нет (пока?), сейчас в CI/CD надо дать причину отката релиза

Banschikov
03.07.2018
12:29:00
Мужики, подскажите, есть ли возможность через valueFrom:
secretKeyRef: передавать секрет из другого namespace?
Или вообще есть ли возможность такая

Google

Anton
03.07.2018
12:31:44

Тимур
03.07.2018
12:35:32
@ptchol кубер деплоишь паппетом или кублетом ?

ptchol
03.07.2018
12:37:20
kubespray'ем же

Andrey
03.07.2018
13:10:22

Anton
03.07.2018
13:13:14

Andrey
03.07.2018
13:14:07
девелоперы хотят билд и выкат на каждый коммит.
nodejs
я думаю, будет достаточно
проект только начинается, у них оно уже падает на демо страничке :)

Anton
03.07.2018
13:15:15
Минутка рекламы: завтра будет вебинар по Кубернетес, если кому интересно, подробности тут: https://goo.gl/4nxtKz

Anton
03.07.2018
13:15:30
ну так скорее всего ошибки будут не с запуском пода. он проверки прошел - жив

Andrey
03.07.2018
13:16:15
в том то и проблема, что не прошёл, на хелсчеки не отвечает

kvaps
03.07.2018
14:01:04
чет в последнем кубе поды в Unknown больше не сносятся с --force --grace-period=0, кто нибудь знает как снести?
уже даже ноды снес, а поды все равно висят

Sergei
03.07.2018
14:15:23
ну я как-то через etcdctl сносил