@kubernetes_ru

Страница 111 из 958
Paul
02.01.2017
16:55:06
ну CNI уже есть. Только оно в альфа

Ihor
02.01.2017
17:20:54
CNI есть, но каким боком он к LXC? LXC - это к CRI

Zon
02.01.2017
17:23:12
Мне интересно, как будет rkt vs docker, насколько оно того стоило

Ihor
02.01.2017
17:35:45
Конкуренция и разнообразие точно на пользу)

Google
Paul
02.01.2017
18:01:18
да, прошу прощения, CRI

Fike
03.01.2017
10:22:34
https://www.distelli.com а этой штукой кто-нибудь пользовался?

Gleb
03.01.2017
19:35:28
Вопрос. А кто какой вариант с сетью для выдачи external ip использует в своих self hosted решениях с кубером?

Ihor
03.01.2017
19:39:28
https://github.com/Mirantis/k8s-externalipcontroller

Andrey
04.01.2017
06:46:11
> @etkee а этой штукой кто-нибудь пользовался? попробуй, расскажешь

Fike
04.01.2017
06:46:26
D:

kay
04.01.2017
08:37:47
https://www.youtube.com/watch?v=BcjkUvaIdAg

Andrey
04.01.2017
09:37:10
ахаха, как ты четко щас описал то чем на канале этом занимаемся :)

вопрос к тем у кого на aws крутится - чем деплоить щас актуальнее кластер?

kube-aws?

kops?

Ihor
04.01.2017
15:41:39
Формально оба варианта подходят)

Andrey
05.01.2017
10:37:04
у меня проблема: я получил аккаунт в китайском амазоне, и там нет некоторых вещей на которые опираются эти модные скрипты (kube-aws хочет kms а там такого нет, kops не умеет зону cn и тп) если идти по kubernetes hard way то там некоторых нужных вещей мне нет (балансировщик, явно заточен на обучение а не на продакшн) что посоветуете? :)

Google
Zon
05.01.2017
11:09:00
@vkfont https://github.com/kubernetes/charts/pull/349#issuecomment-270519468 говорят можно в стейбл. Ты уже проверял?

Andrey
05.01.2017
11:10:22
я до 1.5.1 не обновился еще на гугле... после праздников хочу заняться, сори

Zon
05.01.2017
11:21:47
А, сорри, праздники :) я тут про них забываю :)

Stanislav
05.01.2017
13:51:09
@kalevas явился =)

Aleksey
05.01.2017
14:12:00
Gleb
05.01.2017
15:14:10
https://github.com/Mirantis/k8s-externalipcontroller
Так и не удалось завести это дело.

Уперся в то, что сервер реджектит запрос от контроллера на создание адреса на интерфейсе

Кто-нибудь решил это?

I0105 15:10:17.770171 1 reflector.go:284] github.com/Mirantis/k8s-externalipcontroller/vendor/k8s.io/client-go/1.5/tools/cache/reflector.go:109: forcing resync I0105 15:10:17.770487 1 controller.go:110] Received update event. Old ipclaim 172-24-26-28-24 - , New ipclaim 172-24-26-28-24 - -4959 I0105 15:10:17.770535 1 controller.go:110] Received update event. Old ipclaim 172-24-26-30-24 - , New ipclaim 172-24-26-30-24 - -4962 I0105 15:10:17.770604 1 controller.go:142] Processing claim 172.24.26.28/24 with node and uid kube002 I0105 15:10:17.770660 1 netutils.go:135] Removing addr 172.24.26.28/24 from link eth0 I0105 15:10:17.771749 1 controller.go:142] Processing claim 172.24.26.30/24 with node and uid kube002 I0105 15:10:17.771767 1 netutils.go:135] Removing addr 172.24.26.30/24 from link eth0 E0105 15:10:18.241981 1 controller.go:166] Error creating node kube002: the server rejected our request due to an error in our request (post ipnodes.ipcontroller.ext) E0105 15:10:18.742517 1 controller.go:166] Error creating node kube002: the server rejected our request due to an error in our request (post ipnodes.ipcontroller.ext) E0105 15:10:19.245324 1 controller.go:166] Error creating node kube002 : the server rejected our request due to an error in our request (post ipnodes.ipcontroller.ext)

Каких-то еще сторонних контроллеров я тоже не нашел. Почитал про calico, но там у них не приметил поддержки какой-то выдачи внешних адресов.

Как я понял, тут чятег в основном gce/aws пользует для работы с k8s.

Ihor
05.01.2017
16:26:39
Так и не удалось завести это дело.
Заведи багу на гитхабе, посмотрим

Gleb
05.01.2017
16:29:07
Хорошо, в ближайшее время сделаю. Спасибо

Stanislav
05.01.2017
17:15:34
Ihor
05.01.2017
17:16:33
А что и как мы хуярите?

*вы

Igor
05.01.2017
17:17:34
@xSTASiANx мы не используем NAT и ExternalIP routing, врядли смогу помочь с пробросом траффика до NAT

Stanislav
05.01.2017
17:18:18
https://twitter.com/nixcraft/status/816358052823601152

Ihor
05.01.2017
17:19:02
:D

@takama так а что у вас? (безотносительно исходного вопроса)

Google
Igor
05.01.2017
17:19:51
private cloud, real IPs

Что касается балансинга - перед k8s стоит HAProxy на внешний траффик

Gleb
05.01.2017
17:22:45
Что касается балансинга - перед k8s стоит HAProxy на внешний траффик
Т.е. вы создаете поды и отслеживаете у себя какие порты им выдались и накручиваете где-то сверху HAproxy?

Igor
05.01.2017
17:24:29
Все внутренние сервисы ходят на 443/tcp, но через HAProxy по acl

Схемы две: 1. service-name.domain:443 2. domain:443/service-name

Gleb
05.01.2017
17:26:49
Сама HAproxy деплоится там же на k8s или же на отдельных серверах с public ips?

Igor
05.01.2017
17:27:31
На отдельных серверах

У подов не важно какой порт, в конечном счете у них у всех exposed 443 через Ingress

Gleb
05.01.2017
17:29:01
А, т.е. у каждого пода ingress является точкой входа.

Igor
05.01.2017
17:29:12
да

Gleb
05.01.2017
17:29:30
А как haproxy сообщаете, что новый под поднялся? Через что-то самописное или chef/ansible?

Igor
05.01.2017
17:29:33
только не у каждого пода, а у каждого сервиса

Igor
05.01.2017
17:30:21
По схеме domain:443/service-name у HAProxy никаких изменений не делается

Gleb
05.01.2017
17:30:50
А изоляция сервисов посредством calico?

Igor
05.01.2017
17:31:17
flannel

Gleb
05.01.2017
17:31:39
Спасибо за ответы. Попробую в эту сторону еще покопать.

А никто не пробовал прикрутить что-нибудь вроде openstack lbaas в качестве опенсорсного лоадбалансера?

Igor
05.01.2017
17:32:09
Пожалуйста

Ihor
05.01.2017
17:34:34
Тут немного есть https://github.com/kubernetes/kubernetes/issues?utf8=%E2%9C%93&q=is%3Aopen%20is%3Aissue%20label%3Asig%2Fopenstack%20lbaas

Google
Ihor
05.01.2017
17:53:18
Кстати, в 1.6 будет etcd v3 дефолтный https://groups.google.com/d/msgid/kubernetes-dev/CALM%2Bqp_4nmTasM4eBjsNYwop_%3Dxx4hTP%3DNKMP10sN%3DAiQdG%2BBA%40mail.gmail.com

Paul
05.01.2017
19:12:55
коллеги, а существует простой способ сбросить статистику в kubectl? в частности - restarts count?

Andrey
05.01.2017
19:50:00
Присоединяюсь к вопросу )

Fike
05.01.2017
19:51:29
А в чем проблема?

Andrey
05.01.2017
19:54:56
Я не знаю как. Опишите ламеру шаги плиз как счетчик сбросить?

Admin
ERROR: S client not available

Fike
05.01.2017
19:55:21
не, я имею в виду в чем проблема в ненулевом счетчике?

Andrey
05.01.2017
20:00:39
Иногда полезно чтоб знать были ли косяки после деплоя

Oom kill например, мать его за ногу

Gleb
05.01.2017
20:01:06
а мониторить ли отдельно счетчики и по изменениям уже алертить?

Fike
05.01.2017
20:01:39
для меня это примерно как заполнение удаленных промежутков в мускульном автоинкременте

Andrey
05.01.2017
20:01:58
Ну если сложные решения имплементить то да... но вопрос то в частности

Fike
05.01.2017
20:02:01
тем более что там некоторые внутренности могут ориентироваться на этот счетчик

Paul
05.01.2017
20:02:17
ну в результате я его просто пересоздал, да

несколько непривычный концепт

Fike
05.01.2017
20:02:24
я давно дашборд не глядел, но там нет чего-нибудь типа running N seconds?

Paul
05.01.2017
20:02:34
осталось научится нормально бэкапить содержимое пода

есть

Fike
05.01.2017
20:02:54
тогда проще на него ориентироваться дл визуального контроля за деплоем

Google
Gleb
05.01.2017
20:03:52
А если у тебя подов не один десяток? Вообще зачем все это глазами смотреть, когда прикручивается мониторилка и ты уже получаешь алерты по факту, если так надо уж. Никаких ручных дел

Paul
05.01.2017
20:04:16
как-то вот так

Andrey
05.01.2017
20:04:19
Мой юзкейс такой: куда-нибудь глянуть и посмотреть сколько раз за день сервисы перезапускались. Если 1-2 то норм, если 10 то где-то косяк

Paul
05.01.2017
20:04:39
возраст с момента создания, не запуска если был рестарт - возраст останется старым

Andrey
05.01.2017
20:04:52
Про мониторилку давай подробнее, актуально

Gleb
05.01.2017
20:04:58
Собирать лог по рестартам в какой-нибудь грейлог и алерты по стримам

Fike
05.01.2017
20:04:58
А если у тебя подов не один десяток? Вообще зачем все это глазами смотреть, когда прикручивается мониторилка и ты уже получаешь алерты по факту, если так надо уж. Никаких ручных дел
эт все хорошо, только тут половина чата по часу в день может на отдельное направление тратить, а я так и вообще три месяца куб не трогал, а только выношу планы как-нибудь поднять вручную

Andrey
05.01.2017
20:05:24
Тот же прометеус ваще мало раскрыт в плане кубика (

Fike
05.01.2017
20:05:27
Про мониторилку давай подробнее, актуально
тебе просто нужно собирать общее количество рестартов и делать по ним график

Paul
05.01.2017
20:05:43
Тот же прометеус ваще мало раскрыт в плане кубика (
честно написано, что альфа. Можно писать Шальваку, он поправит

Gleb
05.01.2017
20:05:44
Fike
05.01.2017
20:06:00
или, еще проще - ловить ивенты куба (нет, не знаю как это делать) и на них алерты ставить. умер под -> скинуть сообщение

вышеупомянутый грейлог умеет такие штуки делать, только я до него тоже не добрался

прометеус тоже должен уметь

Gleb
05.01.2017
20:08:18
Про прометеус не скажу, а грейлог да. Просто и понятно там все настраивается.

Ибо прометеус рассматривал при еще не релизнутом алертменеджере и забил. Может сейчас стало все лучше и приятнее.

Paul
05.01.2017
20:11:48
алертменеджер не релизнут до сих пор.

Страница 111 из 958