@kubernetes_ru

Страница 356 из 958
Anatoliy
12.12.2017
13:42:28
и только стэйтлес приложения, стейтфул не смотрел при падениях

Dmitry
12.12.2017
13:43:04
продакшн?

Dmitry
12.12.2017
13:43:48
ну и самый важный вопрос.. зачем тебе HA для apiserver?
Деплои же через него идут? Чтобы не дергали если он помрет, с 60-80 деплоями в день это боль будет.

Anatoliy
12.12.2017
13:43:55
щас нет, просто играюсь и разбираюсь, но будет в итоге продакшн

Google
Dmitry
12.12.2017
13:45:58
Деплои же через него идут? Чтобы не дергали если он помрет, с 60-80 деплоями в день это боль будет.
60-80 деплоев это ерунда) не те нагрузки для HA. проще запустить одну копию apiserver внутри куба, и чтобы он болтался на выделенных

где нагрузки нету

щас нет, просто играюсь и разбираюсь, но будет в итоге продакшн
если играешься, то выключи машину с аписервером и проверь что он работает.. у меня есть подозрения, что твой кластер эту перезагрузку не переживет

Anatoliy
12.12.2017
13:48:12
ок, вечером буду дома посмотрим как прореагирует

но я уже отключал обе машины по очереди, все работало

Dmitry
12.12.2017
13:49:25
хорошо что так.. мне не понятно, как у тебя etcd выбирает лида

Anatoliy
12.12.2017
13:49:58
там всего 2 сервера, и оба мастера, что там выбирать?

Vladyslav
12.12.2017
13:50:09
всем привет кто с alb в кубере работает ?

Anatoliy
12.12.2017
13:50:11
было бы сервера 4-5 и все мастерами - можно было бы смотреть

а так вряд ли проблемы будут

Dmitry
12.12.2017
13:50:38
там всего 2 сервера, и оба мастера, что там выбирать?
что ты подразумеваешь под мастером? какие сервисы запущены?

Vladyslav
12.12.2017
13:51:20
не получается реврайтить на https, кто-то сможет помочь ?

юзаем alb ingress от coreos

Google
Anatoliy
12.12.2017
13:52:28
что ты подразумеваешь под мастером? какие сервисы запущены?
домой приду- отпишусь, а так в kubectl get node показывает что оба мастера, сами сервисы щас не скажу, но вроде там все дублируется из служебных, хотя может быть 1-2 сервиса есть в одном экземпляре

Dmitry
12.12.2017
13:52:59
юзаем alb ingress от coreos
использую nginx-ingress с опцией service.beta.kubernetes.io/aws-load-balancer-proxy-protocol: '*'

все работает

юзаем alb ingress от coreos
у alb помоему бага есть с редиректом.. посмотри в ишьюсах на гитзабе

User ?
12.12.2017
13:56:51
хочешь понять как работает - используй hardway
Вот я в хардвее застрял на том чтобы завести dns и сеть

Hentioe
12.12.2017
14:17:51
Hello everyone, this group is Russian only?

Grigory
12.12.2017
14:19:58
Hentioe kinda, but you may try to ask

Hentioe
12.12.2017
14:21:46
Hentioe kinda, but you may try to ask
OK, i understand, thank you guys

Ilya
12.12.2017
16:15:19
Привет всем. Подскажите, что делать: обновил кластер на амазоне через kops с 1.7 до 1.8.4, после этого стали падать днс-поды с ошибкой типа: 1 dns.go:174] Waiting for services and endpoints to be initialized from apiserver... I1212 16:11:54.699939 1 dns.go:174] Waiting for services and endpoints to be initialized from apiserver... I1212 16:11:55.199942 1 dns.go:174] Waiting for services and endpoints to be initialized from apiserver... Поды находятся на разных нодах, поды убивал полностью, они пересоздавались и снова падали с той же ошибкой. Как лечить, куда копать? Заранее спасибо

Vitaliy
12.12.2017
16:24:03
А логи аписервера что говорят?

Ilya
12.12.2017
16:31:03
да что то ничего нет в них

или я что то не так делаю

Maksim
12.12.2017
16:31:34
А логи аписервера что говорят?
В аписервере нсчего и не будет

Смотри логи kubelet

Хотя скорее всего проблема в RBAC

Если она есть

в 1.8 Её перепилили

Ilya
12.12.2017
16:32:15
нет, его пока нет

хмм, что то с сетью… помог совет прописать iptables -P FORWARD ACCEPT на нодах

Maksim
12.12.2017
16:35:39
а до этого что было?Оо

Google
Maksim
12.12.2017
16:35:50
просто от версии кубера iptables как бы не зависит)

и на оборот то же

Ilya
12.12.2017
16:36:33
это понятно, возможно kops что то намудрил, но это не точно

Fike
12.12.2017
16:47:00
Dmitry
12.12.2017
16:51:32
А что ему помешает?
Выбор лида не понятно как будет происходить. И кто будет отвечать за консистентность

Fike
12.12.2017
16:51:56
ровно так же, как и в любом другом кластере

Если большинством в этом случае считается один противоположный узел, то там возможна ситуация, когда они оба выберутся и потом один или оба уйдут на перевыборы, но никаких нарушений консистентности это за собой не влечет. Если большинство - это оба узла, то могут быть затыки с перевыборами, но там прямо в white paper рекомендуется рандомизировать время выборов, чтобы максимально разделить возможные одновременные запросы на выборы, строго говоря неудачные выборы могут быть и в кластере на 3+ участников, когда никто не набирает большинства.

Vladyslav
12.12.2017
16:56:03
Можно ли в kops передать log-driver gelf? Чтобы не править настройки докер демона руками

Fike
12.12.2017
17:03:50
они не начинают голосование ровно в один момент и не получают ответы ровно в один момент

Dmitry
12.12.2017
17:04:42
они не начинают голосование ровно в один момент и не получают ответы ровно в один момент
Я в курсе, что задержка рандомная) сейчас соберу лабу доя теста

Fike
12.12.2017
17:07:12
Если к кандидату с term = N приходит запрос на голосование с term = M > N, он отказывается от своей кандидатуры и голосует за кандидата с term = M, что должно рано или поздно произойти, т.к. при каждом неудачном раунде кандидаты увеличивают свой term.

Dmitry
12.12.2017
17:08:50
Продолжая нубские вопросы - а кто какую сеть использует на bare-metal кластере? Там чего-то большой выбор. flannel, weave etc.

Let Eat
12.12.2017
20:13:49
кстати.. с если запустить apiserver в единственном экземпляре внтури куба, то это и будет HA
Нет, не будет. Если apiserver умрет то некому будет сказать kubelet что надо новый под запустить

Продолжая нубские вопросы - а кто какую сеть использует на bare-metal кластере? Там чего-то большой выбор. flannel, weave etc.
Разворачивайте CoreOS по pxeboot для ос , докера и kubelet, все остальное внутри кластера self hosted (это когда ключевые компоненты скажем apiserver одновременно и поды своего же кластера) при помощи bootkube.

Можете глянуть typhoon как основу, там конечно мерзкий terraform, но все понятно и можно легко его выкинуть , делать то же самое руками,ансиблом, башем или чем угодно другим

Google
Dmitry
12.12.2017
20:28:56
У меня тут пока полторы железки на поиграться, но спасибо за советы, запомню.

Алексей
12.12.2017
22:12:37
Коллеги подскажите, в ингрессе возможно настроить редирект c одного домена (хоста( на другой? например в ингрессе в spec.rules.host описано 2 хоста: - dom.ru - dom.net Я хочу чтобы всё что прилетало на dom.net редиректилось на dom.ru Что то не смог с ходу найти такой возможности.

Сергей
12.12.2017
22:39:40
https://www.nginx.com/blog/nginmesh-nginx-as-a-proxy-in-an-istio-service-mesh/?utm_campaign=microservices&utm_medium=blog&utm_source=linkedin-soc&utm_content=transcript

Alex
13.12.2017
06:16:37
Коллеги, а кто использует logstash для парсинга логов подов? Есть у кого фильтры или документация как обрабатывать JSON который получается на выходе из подов?

Fike
13.12.2017
06:20:21
обрабатывать для чего?

Admin
ERROR: S client not available

Alex
13.12.2017
06:23:00
обрабатывать для чего?
эластик, далее кибана

у меня что-то такое в message получается - {"log":"\u001b[39m[DEBUG]\u001b[0;39m \u001b[36mConnection\u001b[0;39m - Connection[/172.16.4.254:9042-1, inFlight=0, closed=false] heartbeat query succeeded\n","stream":"stdout","time":"2017-12-13T06:07:07.810234683Z"}

Fike
13.12.2017
06:28:08
если у вас хранилище без определенной структуры, то это вы (а не мы) знаете, как надо сделать для вас

Sergey
13.12.2017
09:51:35
Коллеги, а кто использует logstash для парсинга логов подов? Есть у кого фильтры или документация как обрабатывать JSON который получается на выходе из подов?
очень понравился fluentbit ( http://fluentbit.io/documentation/current/kubernetes/ ), интеграция с k8s замечательная, умеет даже аннотации вытаскивать и логировать. Как по мне то лучше чем filebeat. соотвественно в еластик все ложиться структурированно. Ну и логстеш можно выкинуть в пользу fluentd.

Arslanbekov
13.12.2017
10:32:34
Привет, а кто использует helm, вы tiller ставите в каждый namespace, или у вас он один? Как удобнее использовать в связке с rbac?

Igor
13.12.2017
10:34:44
Если много проектов и у каждого свои ответсвенные, тогда разделяем проекты по namespaces и в каждом свой tiller.

Dmytro
13.12.2017
11:22:26
привет всем. Может ктото сталкивался. У меня работает ingress nginx и перед ним keepalived. Access логи ндиникса пишут remove_addr внутриний ip 10.2.5.0. не могу понять кто виноват в этом и где рыть:( Может кто-то знает как узнать где привязан этот ip, на какой этапе он вставляет его?

terry
13.12.2017
11:34:35
сорян

Sergey
13.12.2017
12:32:54
#whois ▫️Какой у вас проект или где работаете? - в Сбертехе, проекты на кубернетсе - личные ▫️В чём вы специалист? - CTO/BE Developer/DevOps (AWS, K8s, CircleCI и прочий модномолодежный клауд) ▫️Чем можете быть интересны или полезны сообществу? - могу что-нибудь подсказать по вышеперечисленным темам ▫️Чем интересно сообщество вам? - экспертное мнение ▫️Откуда вы? - МСК ▫️Как узнали про группу? - devops_jobs

Ребят, есть пара вопросов: во-первых, есть уже работающий кластер задеплоенный с помощью kops в своей VPC - как минимальными потерями изменить CIDR у этой VPC (амазон это не позволяет делать, только через удаление VPC). не хочется передеплоивать все секреты/сервисы по новой

Второй - кто что использует для мониторинга кластера, хочется увидеть даш с количеством падений/рестартов сервисов. Вроде как есть какой-то плагин в телеграфе, но не уверен, что он отдаст мне нужные метрики

И к тому же не совсем понятно как различать валидные рестарты (RollingUpdate) и падения

Maksim
13.12.2017
12:47:29
Rolling Updates не фиксируются как рестарт)

Google
Anton
13.12.2017
12:52:38
Ребят, есть пара вопросов: во-первых, есть уже работающий кластер задеплоенный с помощью kops в своей VPC - как минимальными потерями изменить CIDR у этой VPC (амазон это не позволяет делать, только через удаление VPC). не хочется передеплоивать все секреты/сервисы по новой
отличная же тренировка, отладить процедуру деплоя заодно =))) ну тоесть развернуть приложение по новой не должно быть такой болью, а если так - нужно что то менять. по мониторингу, сам смотрел дашборды для grafana для к8с, но не нашел такого, чтобы все что я хотел бы показывал. придется пилить самому. вместе с алертингом.

Maksim
13.12.2017
12:52:51
Anatoliy
13.12.2017
12:53:13
как новый под
т.е. просто один под убивается а второй поднимается? ок

Dmytro
13.12.2017
12:58:35
а ingress задеплоен с хостовой сетью?
использовал деплой стандартный с гитхаба (https://github.com/kubernetes/ingress-nginx/blob/master/deploy/with-rbac.yaml)

Anton
13.12.2017
13:13:26
так там же deployment без hostnetwork

поэтому у него и адрес внутренний

Maksim
13.12.2017
13:19:40
т.е. просто один под убивается а второй поднимается? ок
При Rolling Update именно так и происходит. (Более того там формируется новый Replica Set, старый тушится до нуля, новый поднимается до репликас, у тебя в Объекте Rolling Update в Deploy Есть два параметра, MaxSurge и чё-т ещё. Вот они отвечают за кол-во подов больше репликас в процессе обновления

Anton
13.12.2017
13:20:53
использовал деплой стандартный с гитхаба (https://github.com/kubernetes/ingress-nginx/blob/master/deploy/with-rbac.yaml)
я думаю что до внешних адресов без hostnetwork не добраться. как кстати keepalived разворачивал? у тебя 1 ip на множество серверов?

Dmytro
13.12.2017
13:22:54
я думаю что до внешних адресов без hostnetwork не добраться. как кстати keepalived разворачивал? у тебя 1 ip на множество серверов?
keepalived сначала был вне кубернетиса, потом занес его тоже в середину. Использую (https://github.com/kubernetes/contrib/tree/master/keepalived-vip). Виртуальный айпи указывает на сервис ингриса. Работает отлично

Maksim
13.12.2017
13:30:05
под?

Anatoliy
13.12.2017
13:30:13
репликасет

Maksim
13.12.2017
13:30:25
а это норма

он нужен для rollout

Страница 356 из 958