
Maxim
21.09.2016
13:59:16
@ivan4th, а скажи, в чем такая большая проблема отдавать побольше данных в downward API?

kay
21.09.2016
14:02:29
@pipopolam а ты в какой версии пытаешься этот status.hostIP использовать?

Maxim
21.09.2016
14:02:40
1.3.7

kay
21.09.2016
14:02:48
странно. spec.nodeName должен работать

Google

kay
21.09.2016
14:07:26
очень странно.
https://github.com/kubernetes/kubernetes/blob/v1.3.7/pkg/api/validation/validation.go#L1098 - здесь нет. это tag 1.3.7
а здесь есть. это branch 1.3.7 https://github.com/kubernetes/kubernetes/blob/1.3.7/pkg/api/validation/validation.go#L1320

Maxim
21.09.2016
14:09:05
ну сборка-то по тегу делалась скорее всего

Ivan
21.09.2016
15:16:08

Maxim
21.09.2016
15:17:04
а резолвить в пре-ините?

Ivan
21.09.2016
15:19:03
можно init containers заюзать, чтобы получить ip и положить куда надо, да

Maxim
21.09.2016
15:19:29
ну да, я про init-container

Ivan
21.09.2016
15:20:21
ну да, там. или если сам image собираешь, то можешь уже и в нём самом

Maxim
21.09.2016
15:22:23
вот блин Hockin тролль, а...

Ivan
21.09.2016
15:25:29
Это thockin-то троль? До smarterclayton’а ему как до луны

Maxim
21.09.2016
15:25:39
ггг
ну я спросил "а чобы нет", он ответил "чтобы нет"

Google

Maxim
21.09.2016
15:26:00
ну не тролль?

Ivan
21.09.2016
15:26:50
ну он наверное как раз имел в виду, что чрезмерное увлечение downward api - запашок

Maxim
21.09.2016
15:27:39
ну если я могу это все узнать снаружи пода, почему мне нельзя тоже самое узнать внутри?

Ivan
21.09.2016
15:28:18
чем меньше контейнеры в pod’е осознают, что ими рулит именно k8s, тем лучше - в этом идея
кроме случаев, когда без этого совсем никак

kay
21.09.2016
15:37:51
а есть ли простой способ отобразить поды ,которые запущены на определенном хосте?

Maxim
21.09.2016
15:40:05
имаджи запущенных контейнеров можно
$ kubectl get no <node> -o jsonpath='{.status.images[*].names[0]}'

kay
21.09.2016
15:41:37
echo -e $(kubectl get pods —all-namespaces -o jsonpath="{range .items[?(.spec.nodeName==\"ubuntu3\")]}{.metadata.name}\n{end}")

Dmitriy
21.09.2016
15:42:55
вставлю и свой вариант
kubectl get --all-namespaces pod -o wide | grep nodename

kay
21.09.2016
15:43:22
твой вариант мне больше нравится. спасибо

Maxim
21.09.2016
15:49:51
https://www.weave.works/prometheus-and-kubernetes-monitoring-your-applications/

Fike
21.09.2016
15:50:11
да когда вы читать вообще успеваете D:

Maxim
21.09.2016
15:50:31
вообще говоря - никогда обычно
хватает времени только ссылки копипастить

Alexander
21.09.2016
19:56:08
а я обычно читаю только команды и их вывод :))
Кто что использует в качестве reverse proxy c k8s?

Maxim
21.09.2016
19:59:36
nginx

Alexander
21.09.2016
20:07:56
я бы удивился если бы кто сказал apache :))
есть еще traefik

Google

Dmitriy
22.09.2016
03:55:49
ELB ?
+ ingress

Тимур
22.09.2016
07:47:06
а ingress для кого у вас конфиги генерит ? кто-нить юзает ingress+ipvs(keepalived) ?

Dmitriy
22.09.2016
07:49:14
нжинкс + tls

kay
22.09.2016
07:49:44
есть тут кто-нибудь, кто может помочь с параметрами к duplicity?

Тимур
22.09.2016
07:51:01
что это еще такое

Maxim
22.09.2016
07:53:05
это быкапилка такая ;)

Fike
22.09.2016
08:05:13
про traefik не знал, спасибо

Maxim
22.09.2016
08:05:34
как тебя угораздило?
он уже год поднимает хайп

Fike
22.09.2016
08:06:07
i'm not superman

Maxim
22.09.2016
08:06:35
:(

Alexander
22.09.2016
09:04:18
ingress + nginx вроде то что нужно, осталось только раскурить тему

Vladimir
22.09.2016
09:25:21
kubernetes на aws. ноды в autoscaling group. добавляю/убиваю ноды и вижу в ‘kubectl get nodes’ результат где-то через 10-15 минут только. там наверно какие-нибудь интервалы для health checks можно сконфигурировать?

Maxim
22.09.2016
09:25:43
да

Vladimir
22.09.2016
09:26:04
а где? )

Maxim
22.09.2016
09:26:37
первое место - ключи кьюблета
--node-status-update-frequency=4s
второе ща найду
вот, нашел

Google

Maxim
22.09.2016
09:28:28
https://github.com/evilmartians/chef-kubernetes/commit/b5365fce4df5b9fe1d24fc7e6d0dc5de94a1c2fd
с шести минут до 46-ти секунд

kay
22.09.2016
09:28:55
Возможно еще это понадобится
kube-controller-manager
--pod-eviction-timeout=5m0s: The grace period for deleting pods on failed nodes.

M
22.09.2016
09:28:56

Maxim
22.09.2016
09:29:20
+ - --node-monitor-period=2s
+ - --node-monitor-grace-period=16s
+ - --pod-eviction-timeout=30s

Vladimir
22.09.2016
09:29:47
ок, спасибо, буду ковырять

Admin
ERROR: S client not available

Maxim
22.09.2016
09:31:14
то есть два места:
1. ключи kubelet'a
тут надо добавить --node-status-update-frequency
2. ключи controller-manager'a
тут их целых три:
- —node-monitor-period
- —node-monitor-grace-period
- —pod-eviction-timeout
дальше можешь либо читать ман (предпочтительный вариант)
либо скопипастить мои цыфирьки
я довел время обнаружения до сорока с чем-то секунд
@vmakhaev ^^^

Vladimir
22.09.2016
09:32:41
хорошо, спасибо

Alexander
22.09.2016
09:57:47
у кого-нибудь получилось подружить ingress и namespaces?

kay
22.09.2016
10:02:08
у меня
у меня в default namespace живет ingress controller. а всё остальное он вытаскивает из остальных namespace
оно так by default работает

Alexander
22.09.2016
10:06:02
круто
а по подробнее как это настроить?

Google

kay
22.09.2016
10:06:41
так всё дефолтно
https://github.com/kubernetes/contrib/blob/master/ingress/controllers/nginx/examples/default/rc-default.yaml

Maxim
22.09.2016
10:07:50
@sclif13 ты проще расскажи, что конкретно у тебя НЕ получилось

kay
22.09.2016
10:07:54
а затем в своих namespace создаешь ingress instance

Alexander
22.09.2016
10:08:53
пока не пробовал, пока изучаю

Vladimir
22.09.2016
10:51:31
в aws k8s создаёт для каждого сервиса свой ELB, домен которого можно использовать как CNAME запись для домена приложения. У нас будет крутиться много приложений/сервисов и не хочется для каждого прописывать dns, а хочется один раз указать один раз для всех поддоменов, типа *.k8s-apps.com идите туда-то по CNAME. Как-то это можно сделать?

Maxim
22.09.2016
10:51:51
роут53 прикрути
все-равно ж его юзаешь, раз в амазоне

Vladimir
22.09.2016
10:53:17
домены зарегистрированы где-то в другом месте заказчиком и мы к ним доступа не имеем. Я уже им предлагал перенести в route53, но они как-то проигнорили :-)

Maxim
22.09.2016
10:53:46
я не о клиентских доменах
у тебя ж есть k8s-домен
его в роут53
а клиент у себя пускай cname'ы лепит

Vladimir
22.09.2016
10:54:32
ок, понял

Maxim
22.09.2016
10:55:12
вот есть работающее решение: https://github.com/wearemolecule/route53-kubernetes
вот два issue, которые надо форсить:
https://github.com/kubernetes/kubernetes/issues/23481
https://github.com/kubernetes/kubernetes/issues/21397

Vladimir
22.09.2016
11:01:10
ага, зафорсил. я так понял, что она сама будет эти записи создавать для ELB, и возможно в будущем запилят поддержку в самом кубернетесе