@kubernetes_ru

Страница 185 из 958
Let Eat
13.06.2017
16:10:33
Put the pod in zone Z: Tricked you! It is not possible express this using the API described here. For this you should use node affinity.
зону "заказать" нельзя, но вопрос был про то, как запустить всё в одной зоне, а это можно

sm
13.06.2017
17:43:34
Коллеги, все привет

есть у кого опыт kubernetes cloud-provider=openstack?

Dmitry
14.06.2017
08:21:48
https://github.com/gravitational/workshop/blob/master/k8sprod.md

Google
Dmitry
14.06.2017
08:22:12
Интересная дока. Местами очевидная

Vladimir
14.06.2017
08:48:50
Ребят, а хранить в Vault конфиги целыми json файлами это кошерно или как?

Vladimir
14.06.2017
08:50:42
да, про hashicorp. а как лучше сделать? мне на выходе всё равно нужно json файлик подсунуть сервису. хранить секреты в vault, как key/value и потом собирать json?

а, вижу. там можно хранить как key/value, а читать как json. попробую так

Let Eat
14.06.2017
09:02:30
Paul
14.06.2017
09:03:06
почему?
потому, что vault придуман для другого, как мне кажется. эх, сдедал бы кто хранение секретов плагином :(

Let Eat
14.06.2017
09:03:48
в kubernetes плагины такие плагины :)

Paul
14.06.2017
09:05:40
кубернетес так задуман, вообще-то

за это мы его и любим

это не сервис, это клей

Andrey
14.06.2017
09:43:35
а кстати, сори за оффтоп: кронджобы еще не в бете?

Let Eat
14.06.2017
09:50:03
кубернетес так задуман, вообще-то
задуман что плагины надо вкомпиливать? :))

Google
Paul
14.06.2017
09:56:22
задуман что плагины надо вкомпиливать? :))
ну да. Это такой клей, который связывает между собой кучу кирпичиков и мы получаем облако

а кирпичики каждый сам выбирает

Ivan
14.06.2017
10:25:24
а кстати, сори за оффтоп: кронджобы еще не в бете?
неа https://github.com/kubernetes/kubernetes/issues/41039

Ihor
14.06.2017
13:24:04
кстати, а кто тут как секреты провижинит в кубер? они же до сих пор не запилили нормальную экосистему для этого, даже обновлять нельзя

kay
14.06.2017
13:25:53
коллеги, я тут к aws приобщаюсь. и возникла пролема с kubectl port-forward, да даже ssh. соединения рвутся. ssh: packet_write_wait: Connection to AWS_IP_KUBE_API port 22: Broken pipe kubectl port-forward: E0614 15:25:44.667739 17585 portforward.go:178] lost connection to pod Кто-нибудь может объяснить какого черта?

Let Eat
14.06.2017
13:27:07
на apiserver через ELB ходите?

kay
14.06.2017
13:27:32
на apiserver через ELB ходите?
и так и так пробовал. поведение одинаковое

Let Eat
14.06.2017
13:28:38
незнаю, что насчет "и так", но когда делаете "и так", посмотрите на idle_timeout на ELB

kay
14.06.2017
13:29:04
и напрямую по внешнем IP захожу и через ELB

хм. посмотрел документацию. timeout. The range for the idle timeout is from 1 to 3,600 seconds.. т.е. больше нельзя? они серьезно?

Let Eat
14.06.2017
13:31:04
port forward оно же для временных туннельчиков

kay
14.06.2017
13:31:57
port-forward - частный случай. а как народ с websockets работет? тоже ограничение идет?

Let Eat
14.06.2017
13:32:41
вебсокетс умеют восстанавливать соединение

иначе грош им цена

kay
14.06.2017
13:34:47
ну это тоже частный случай. в любом случае, спасибо.

ок, с elb разобрался. а почему при внешнем IP такое?

когда я напрямую на внешний IP коннекчусь

Let Eat
14.06.2017
13:40:44
посмотрите все аргументы к apiserver, может будет что

kay
14.06.2017
13:41:14
дело не в apiserver, а в ssh

вот оставил я соединение, а оно рвется

Google
kay
14.06.2017
13:42:09
хотя в настройках использую keepalive.

ServerAliveInterval 30

TCPKeepAlive yes

Let Eat
14.06.2017
13:43:19
что еще за ssh? вы же про port forward

Let Eat
14.06.2017
13:51:13
незнаю, смотрите по tcpdump кто шлет FIN/RST и ищите там

Роман
15.06.2017
08:08:22
Ребята, что я делаю не так? Поднимаю кластер при помощи kubeadm. Запускаю тестовое приложение apache-hostname (которое слушает порт 80), делаю expose с type=LoadBalancer. В итоге внешний адрес всё время в состоянии pending. Никак мне кубернетес не даётся...

Denis
15.06.2017
09:07:09
Привет! А не подскажите требования к мастер нодам k8s? Допустим у меня 3 мастера и 3 воркера.

Let Eat
15.06.2017
09:27:01
всё что угодно )

Роман
15.06.2017
10:33:40
type=LoadBalancer из коробки вроде работает только с облаками(AWS, GCE)
А как быть в таком случае? Как мне извне доступ получить к приложению?

Ivan
15.06.2017
10:34:43
А как быть в таком случае? Как мне извне доступ получить к приложению?
В проде с кубернетесом не работал(кто-то может что-то более дельное подсказать), но для своих тестовых целей использовал https://kubernetes.io/docs/concepts/services-networking/service/#external-ips

Let Eat
15.06.2017
10:35:07
NodePort или ExternalIP

Роман
15.06.2017
10:37:52
NodePort или ExternalIP
NodePort подразумевает, что я установлю, например, nginx, как реверс прокси и буду проксировать на ноды запросы? Тогда придётся руками каждый раз править его конфиг, когда ногу добавлять буду.

Konstantin
15.06.2017
10:43:21
А как быть в таком случае? Как мне извне доступ получить к приложению?
Тогда нужен Ingress Controller. Он есть например на базе Nginx. Дока тут - https://kubernetes.io/docs/concepts/services-networking/ingress/

Роман
15.06.2017
10:53:27
Тогда нужен Ingress Controller. Он есть например на базе Nginx. Дока тут - https://kubernetes.io/docs/concepts/services-networking/ingress/
nginx-ingress-controller - это приложение, которое надо запускать на хост-системе, или это такой же докер-контейнер, который запускается в кубере?

Konstantin
15.06.2017
12:07:23
nginx-ingress-controller - это приложение, которое надо запускать на хост-системе, или это такой же докер-контейнер, который запускается в кубере?
Да, это просто сервис. Типа прокси. Запускается на всех нодах. ingress умеет по определенным правилам пониматьдля какого сервиса предназначается конкретный запрос. Правила можно задавать по доменам или по путям. В реальности придется ставить перед кластером kubernetes еще и балансер какой-то (для отказоустоичивости, на случай падения одной из нод с ingress)

Google
Konstantin
15.06.2017
12:08:54
Вот пример как конфигрурировать роутинг по путям - https://kubernetes.io/docs/concepts/services-networking/ingress/#simple-fanout

А вот так по доменам - https://kubernetes.io/docs/concepts/services-networking/ingress/#name-based-virtual-hosting

Denis
15.06.2017
13:09:59
Разбираюсь тут с настройкой kube-proxy, и во всех мануалах указывается только один --master, реально же мастеров хочется минимум 3, как быть?

Denis
15.06.2017
13:17:55
а проверяли? он пробует следующий?

Admin
ERROR: S client not available

Ivan
15.06.2017
13:20:52
Разбираюсь тут с настройкой kube-proxy, и во всех мануалах указывается только один --master, реально же мастеров хочется минимум 3, как быть?
мы пока пошли от идеи, что на каждой ноде с мастером, куби прокси смотрит на своего мастера. И если не доступен мастер, то скорее всего с нодой что то не так. Кто вообще как делает в проде? у нас пока тестовый кластер.

Vitaliy
15.06.2017
13:21:28
мы, извините, так делаем

Ivan
15.06.2017
13:22:43
как мастеров обновлять собрались? :)
пока не думали в эту сторону =)

Denis
15.06.2017
13:23:43
мы пока пошли от идеи, что на каждой ноде с мастером, куби прокси смотрит на своего мастера. И если не доступен мастер, то скорее всего с нодой что то не так. Кто вообще как делает в проде? у нас пока тестовый кластер.
В этом мануале (https://kubernetes.io/docs/getting-started-guides/scratch/) говорится что kube-proxy должен быть запущен на всех воркерах. И что на нодах с мастером он не нужен.

Denis
15.06.2017
13:33:32
Есть тикет https://github.com/kubernetes/kubernetes/issues/18174 Вот тут чувак пишет что DNS не сработал Another technique that I have tried (which failed) is to use DNS round robining - "kubemaster -> IP1, IP2, IP3". This does not work - I think the kubelet/go/os is caching the resolution and keeps re-trying the same master. So DNS round robin may be useful for load balancing but is no good for HA failover. Хотя другой пишет (https://github.com/kubernetes/kubernetes/issues/18174#issuecomment-232850783) что вроде все ок, и другой уже даже скрипт написал для мониторинга мастеров и обновления DNS записей (https://github.com/kubernetes/kubernetes/issues/18174#issuecomment-232874344)

Тут ведь полюбому есть кто-то, кто эту проблему решал и провоидл тесты с вырубанием мастеров?

Vitaliy
15.06.2017
13:42:19
Denis
15.06.2017
13:43:18
пробует. kubelet тоже
спасибо, тогда пока делаю так

Alisa
15.06.2017
14:06:21
тут кто-то использовал kafka+spark в kubernetes из helm репы? брат жив?

Igor
16.06.2017
12:12:26
https://www.cncf.io/blog/2017/06/15/sign-kubernetes-beta-certification-exam/

Google
Igor
16.06.2017
12:12:37
сертификацию завезли

Alisa
16.06.2017
12:27:24
а как к нему подготовиться? ?

Igor
16.06.2017
12:29:37
https://github.com/cncf/curriculum/blob/master/certified_kubernetes_administrator_exam_V0.9.pdf

Ruslan
16.06.2017
12:30:12
сертификация к софту, который из беты не вылезает

Let Eat
16.06.2017
13:00:57
Евгений
16.06.2017
13:09:02
в Питере встреч, митапов по k8s не намечается???

Maksim
16.06.2017
13:13:10
Бета- софт бета-сертификат бета-админы....

Прям детская считалочка

Paul
16.06.2017
13:19:21
в Питере встреч, митапов по k8s не намечается???
пивной митап все собрать не можем

Евгений
16.06.2017
13:23:46
это печально

Andrey
16.06.2017
16:03:53
Один раз собирали, правда я не помню чем закончилось ;)

Paul
16.06.2017
16:05:04
решили собраться через месяцок. Вот, до сих пор собираемся

Andrey
16.06.2017
16:05:59
А скиньте ссылку на канал плиз питерский я на телефоне ссылку не могу найти )

Fike
16.06.2017
16:07:11
пинганул тебя в чате, там нет прямой ссылки

Andrey
16.06.2017
16:10:51
@kubernetes_spb

Страница 185 из 958