
Anatoliy
12.12.2017
13:42:28
и только стэйтлес приложения, стейтфул не смотрел при падениях

Dmitry
12.12.2017
13:43:04
продакшн?

Dmitry
12.12.2017
13:43:48

Anatoliy
12.12.2017
13:43:55
щас нет, просто играюсь и разбираюсь, но будет в итоге продакшн

Google

Dmitry
12.12.2017
13:45:58
где нагрузки нету

Anatoliy
12.12.2017
13:48:12
ок, вечером буду дома посмотрим как прореагирует
но я уже отключал обе машины по очереди, все работало

Dmitry
12.12.2017
13:49:25
хорошо что так.. мне не понятно, как у тебя etcd выбирает лида

Anatoliy
12.12.2017
13:49:58
там всего 2 сервера, и оба мастера, что там выбирать?

Vladyslav
12.12.2017
13:50:09
всем привет
кто с alb в кубере работает ?

Anatoliy
12.12.2017
13:50:11
было бы сервера 4-5 и все мастерами - можно было бы смотреть
а так вряд ли проблемы будут

Dmitry
12.12.2017
13:50:38

Vladyslav
12.12.2017
13:51:20
не получается реврайтить на https, кто-то сможет помочь ?
юзаем alb ingress от coreos

Google

Anatoliy
12.12.2017
13:52:28

Dmitry
12.12.2017
13:52:59
все работает

User ?
12.12.2017
13:56:51

Hentioe
12.12.2017
14:17:51
Hello everyone, this group is Russian only?

Grigory
12.12.2017
14:19:58
Hentioe kinda, but you may try to ask

Hentioe
12.12.2017
14:21:46

Ilya
12.12.2017
16:15:19
Привет всем. Подскажите, что делать: обновил кластер на амазоне через kops с 1.7 до 1.8.4, после этого стали падать днс-поды с ошибкой типа:
1 dns.go:174] Waiting for services and endpoints to be initialized from apiserver...
I1212 16:11:54.699939 1 dns.go:174] Waiting for services and endpoints to be initialized from apiserver...
I1212 16:11:55.199942 1 dns.go:174] Waiting for services and endpoints to be initialized from apiserver...
Поды находятся на разных нодах, поды убивал полностью, они пересоздавались и снова падали с той же ошибкой. Как лечить, куда копать? Заранее спасибо

Vitaliy
12.12.2017
16:24:03
А логи аписервера что говорят?

Ilya
12.12.2017
16:31:03
да что то ничего нет в них
или я что то не так делаю

Maksim
12.12.2017
16:31:34
Смотри логи kubelet
Хотя скорее всего проблема в RBAC
Если она есть
в 1.8 Её перепилили

Ilya
12.12.2017
16:32:15
нет, его пока нет
хмм, что то с сетью… помог совет прописать iptables -P FORWARD ACCEPT на нодах

Maksim
12.12.2017
16:35:39
а до этого что было?Оо

Google

Maksim
12.12.2017
16:35:50
просто от версии кубера iptables как бы не зависит)
и на оборот то же

Ilya
12.12.2017
16:36:33
это понятно, возможно kops что то намудрил, но это не точно

Fike
12.12.2017
16:47:00

Dmitry
12.12.2017
16:51:32
А что ему помешает?
Выбор лида не понятно как будет происходить. И кто будет отвечать за консистентность

Fike
12.12.2017
16:51:56
ровно так же, как и в любом другом кластере
Если большинством в этом случае считается один противоположный узел, то там возможна ситуация, когда они оба выберутся и потом один или оба уйдут на перевыборы, но никаких нарушений консистентности это за собой не влечет. Если большинство - это оба узла, то могут быть затыки с перевыборами, но там прямо в white paper рекомендуется рандомизировать время выборов, чтобы максимально разделить возможные одновременные запросы на выборы, строго говоря неудачные выборы могут быть и в кластере на 3+ участников, когда никто не набирает большинства.

Vladyslav
12.12.2017
16:56:03
Можно ли в kops передать log-driver gelf? Чтобы не править настройки докер демона руками

Dmitry
12.12.2017
17:02:23
Если большинством в этом случае считается один противоположный узел, то там возможна ситуация, когда они оба выберутся и потом один или оба уйдут на перевыборы, но никаких нарушений консистентности это за собой не влечет. Если большинство - это оба узла, то могут быть затыки с перевыборами, но там прямо в white paper рекомендуется рандомизировать время выборов, чтобы максимально разделить возможные одновременные запросы на выборы, строго говоря неудачные выборы могут быть и в кластере на 3+ участников, когда никто не набирает большинства.
Так они ж к консенсусу не прийдут, т.к. Будут голосовать друг за друга, и ни у кого не будет большинства
https://coreos.com/etcd/docs/latest/v2/admin_guide.html#optimal-cluster-size

Fike
12.12.2017
17:03:50
они не начинают голосование ровно в один момент и не получают ответы ровно в один момент

Dmitry
12.12.2017
17:04:42

Fike
12.12.2017
17:07:12
Если к кандидату с term = N приходит запрос на голосование с term = M > N, он отказывается от своей кандидатуры и голосует за кандидата с term = M, что должно рано или поздно произойти, т.к. при каждом неудачном раунде кандидаты увеличивают свой term.

Dmitry
12.12.2017
17:08:50
Продолжая нубские вопросы - а кто какую сеть использует на bare-metal кластере? Там чего-то большой выбор. flannel, weave etc.

Dmitry
12.12.2017
17:33:49

Let Eat
12.12.2017
20:13:49
Можете глянуть typhoon как основу, там конечно мерзкий terraform, но все понятно и можно легко его выкинуть , делать то же самое руками,ансиблом, башем или чем угодно другим

Google

Dmitry
12.12.2017
20:28:56
У меня тут пока полторы железки на поиграться, но спасибо за советы, запомню.

Алексей
12.12.2017
22:12:37
Коллеги подскажите, в ингрессе возможно настроить редирект c одного домена (хоста( на другой?
например в ингрессе в spec.rules.host описано 2 хоста:
- dom.ru
- dom.net
Я хочу чтобы всё что прилетало на dom.net редиректилось на dom.ru
Что то не смог с ходу найти такой возможности.

Сергей
12.12.2017
22:39:40
https://www.nginx.com/blog/nginmesh-nginx-as-a-proxy-in-an-istio-service-mesh/?utm_campaign=microservices&utm_medium=blog&utm_source=linkedin-soc&utm_content=transcript

Alex
13.12.2017
06:16:37
Коллеги, а кто использует logstash для парсинга логов подов? Есть у кого фильтры или документация как обрабатывать JSON который получается на выходе из подов?

Fike
13.12.2017
06:20:21
обрабатывать для чего?

Admin
ERROR: S client not available

Alex
13.12.2017
06:23:00
у меня что-то такое в message получается - {"log":"\u001b[39m[DEBUG]\u001b[0;39m \u001b[36mConnection\u001b[0;39m - Connection[/172.16.4.254:9042-1, inFlight=0, closed=false] heartbeat query succeeded\n","stream":"stdout","time":"2017-12-13T06:07:07.810234683Z"}

Fike
13.12.2017
06:28:08
если у вас хранилище без определенной структуры, то это вы (а не мы) знаете, как надо сделать для вас

Sergey
13.12.2017
09:51:35

Arslanbekov
13.12.2017
10:32:34
Привет, а кто использует helm, вы tiller ставите в каждый namespace, или у вас он один?
Как удобнее использовать в связке с rbac?

Igor
13.12.2017
10:34:44
Если много проектов и у каждого свои ответсвенные, тогда разделяем проекты по namespaces и в каждом свой tiller.

Dmytro
13.12.2017
11:22:26
привет всем. Может ктото сталкивался. У меня работает ingress nginx и перед ним keepalived. Access логи ндиникса пишут remove_addr внутриний ip 10.2.5.0. не могу понять кто виноват в этом и где рыть:( Может кто-то знает как узнать где привязан этот ip, на какой этапе он вставляет его?

terry
13.12.2017
11:34:35
сорян


Sergey
13.12.2017
12:32:54
#whois
▫️Какой у вас проект или где работаете? - в Сбертехе, проекты на кубернетсе - личные
▫️В чём вы специалист? - CTO/BE Developer/DevOps (AWS, K8s, CircleCI и прочий модномолодежный клауд)
▫️Чем можете быть интересны или полезны сообществу? - могу что-нибудь подсказать по вышеперечисленным темам
▫️Чем интересно сообщество вам? - экспертное мнение
▫️Откуда вы? - МСК
▫️Как узнали про группу? - devops_jobs
Ребят, есть пара вопросов: во-первых, есть уже работающий кластер задеплоенный с помощью kops в своей VPC - как минимальными потерями изменить CIDR у этой VPC (амазон это не позволяет делать, только через удаление VPC). не хочется передеплоивать все секреты/сервисы по новой
Второй - кто что использует для мониторинга кластера, хочется увидеть даш с количеством падений/рестартов сервисов. Вроде как есть какой-то плагин в телеграфе, но не уверен, что он отдаст мне нужные метрики
И к тому же не совсем понятно как различать валидные рестарты (RollingUpdate) и падения


Maksim
13.12.2017
12:47:29
Rolling Updates не фиксируются как рестарт)

Anton
13.12.2017
12:47:57

Google

Anatoliy
13.12.2017
12:52:04

Anton
13.12.2017
12:52:38

Maksim
13.12.2017
12:52:51

Anatoliy
13.12.2017
12:53:13
как новый под
т.е. просто один под убивается а второй поднимается? ок

Dmytro
13.12.2017
12:58:35

Anton
13.12.2017
13:13:26
так там же deployment без hostnetwork
поэтому у него и адрес внутренний

Maksim
13.12.2017
13:19:40
т.е. просто один под убивается а второй поднимается? ок
При Rolling Update именно так и происходит. (Более того там формируется новый Replica Set, старый тушится до нуля, новый поднимается до репликас, у тебя в Объекте Rolling Update в Deploy Есть два параметра, MaxSurge и чё-т ещё. Вот они отвечают за кол-во подов больше репликас в процессе обновления

Anton
13.12.2017
13:20:53

Dmytro
13.12.2017
13:22:54

Anatoliy
13.12.2017
13:29:44

Maksim
13.12.2017
13:30:05
под?

Anatoliy
13.12.2017
13:30:13
репликасет

Maksim
13.12.2017
13:30:25
а это норма
он нужен для rollout