
Константин
16.02.2017
09:37:02
Ребят, вопрос. Можно ли в kubernetes отслеживать все events в реалтайме как в докере?

Ivan
16.02.2017
10:00:24
нет, только если после кто делился.
Про "вот это всё" имеется ввиду, что было или не было. А "толку от вклада" - это слишком общая фраза. Я так понял, что будут рассказывать о "мы молодцы, отправили сотню пулл-реквестов, и теперь кубик научился делать то-то"

Zon
16.02.2017
10:03:33

Константин
16.02.2017
10:13:29

Google

kay
16.02.2017
10:40:12
Их можно и в кибану писать и уведомления присылать при определённом событии

Denis
16.02.2017
12:35:49

Yuryhalf
16.02.2017
12:36:05
я приду)))

Михаил
16.02.2017
12:36:58

Ihor
16.02.2017
12:54:57

Denis
16.02.2017
20:31:01
Смотрел кто-нибудь на https://github.com/microscaling/microscaling ? :)
https://medium.com/microscaling-systems/microscaling-a-kubernetes-cluster-53d08f2f8041#.ku7xuh2ry

Zon
16.02.2017
21:47:19

Denis
16.02.2017
23:04:37
@ivan4th что думаешь? :)
А кто-нибудь настраивал Federation? https://coreos.com/blog/kubernetes-cluster-federation.html

Artem
17.02.2017
07:43:46
я настраивал
etcd там слабое звено, постоянно глючит

Google

Artem
17.02.2017
07:46:44
если настроить etcd, то federation работает. правда это глубокая бета, я в прод бы поостерегся

Aleksey
17.02.2017
08:50:22

Denis
17.02.2017
09:11:07
Кто нибудь знает к кому можно обратиться за аудитом настройки кассандры и кафки?
Человек или компания

Artem
17.02.2017
09:18:27
etcd теряет коннективность и потом и кворум. можно подкрутить таймауты

Aleksey
17.02.2017
09:32:42

Artem
17.02.2017
09:33:54
он и просто так может. между дц тем более 12 машин, полов около 50
подов
я обновил до 3.0.9 вроде получше стало
а так миллион сообщений в логах cluster unhealthy

Aleksey
17.02.2017
09:37:15
так может стоит подкрутить таймауты на выборы, если кластер поднят в междц?

Artem
17.02.2017
09:39:06
election timeout крутить можно, но там tradeoff и можно прозевать настоящий фейл)
я с телефона, извините за сумбурность речи
в общем как-то работает на полуручной тяге
между дц сети разные, приходится крутить у всех по-разному
ещё я так понимаю там косты растут из-за служебного трафика. сколько я ещё не разбирался, но по прикидкам до 30% увеличение сетевой нагрузки, смотря как хорошо работает сеть в дц
у меня есть совсем угрюмые дц, с латенси больше 1000 и ещё асинхронные совсем. севера, там особенности такие. на следующей неделе планирую затестить и их тоже


Дмитрий
17.02.2017
11:33:47
Привет, Всем! помогите пожалуйста с пролемой. На нодах не поднимаются pod'ы, находятся в состоянии pending. Узнал что виной тому сообщения KubeletHasSufficientDisk, KubeletHasSufficientMemory и KubeletHasNoDiskPressure, которые у меня на каждой ноде в кластере, а потому scheduler не хочет распределять контейнеры по нодам. Как примерно разрешить эту ситацию? Искал, но так и не смог найти подходящего решения.

Pavel
17.02.2017
11:35:24
Хорошо бы знать значения тех ключей которые ты приводишь, но вероятно на нодах кончилось место.

Дмитрий
17.02.2017
11:37:38

Google

yolkov
17.02.2017
11:38:21
сеть точно работает
для куба
на чем она

Pavel
17.02.2017
11:38:37
Тогда не очень понятно откуда такой вывод
"Узнал что виной тому сообщения KubeletHasSufficientDisk, KubeletHasSufficientMemory и KubeletHasNoDiskPressure, "

Дмитрий
17.02.2017
11:38:39
Хорошо бы знать значения тех ключей которые ты приводишь, но вероятно на нодах кончилось место.
OutOfDisk False Fri, 17 Feb 2017 17:29:06 +0600 Mon, 13 Feb 2017 10:50:16 +0600 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Fri, 17 Feb 2017 17:29:06 +0600 Wed, 08 Feb 2017 17:54:11 +0600 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Fri, 17 Feb 2017 17:29:06 +0600 Wed, 08 Feb 2017 17:54:11 +0600 KubeletHasNoDiskPressure kubelet has no disk pressure
Ready True Fri, 17 Feb 2017 17:29:06 +0600 Mon, 13 Feb 2017 10:50:16 +0600 KubeletReady kubelet is posting ready status

Pavel
17.02.2017
11:39:15
Там же везде false. Это тут совсем ни при чем

Дмитрий
17.02.2017
11:41:06
сетку я проверял, работает, в самом начале после инсталяции запустил два контейнера с двумя репликами, на разных нодах. Они друг друга видели

yolkov
17.02.2017
11:41:17
Еще раз, на чем сеть, у мня такое бывает, когда не могут ИП выдаться для подов

Дмитрий
17.02.2017
11:41:35
Flannel + Etcd

yolkov
17.02.2017
11:41:46
посмотри логи фланел

Дмитрий
17.02.2017
11:41:50
к Etcd подключение по https
в логах etcd ругань: etcd[2952]: transport: http2Client.notifyError got notified that the client transport was broken unexpected EOF.
сетую на то что c https flannel не работает нормально

Fike
17.02.2017
11:44:11
для сетки нет разницы, http по ней идет, или https

Дмитрий
17.02.2017
11:44:59
kube-apiserver[3116]: W0215 06:44:44.967718 3116 controller.go:392] Resetting endpoints for master service "kubernetes" to &TypeMeta{Kind:,APIVersion:,}
вот это выдает API-Server
в эту сторону копать?

Paul
17.02.2017
12:10:48
у нас мультирегионный BMR-проект, мне вот на днях должны железо выделить

Andrey
17.02.2017
12:12:16
у меня два кластера но между ними китайский фаервол, я че-то пока очкую объединять учитывая лаги, тем более юзкейсов не вижу

Google

Paul
17.02.2017
12:14:14
насколько я знаю, можно получить право на "трубу" от китайского МВД, но просить придется очень, очень тщательно

Andrey
17.02.2017
12:16:07
ну они парсят только 80 и 443, остальной трафик просто медленно через их роутеры идет потому что они заняты парсингом :)
дело в том что по опыту там скорость не гарантированая: может мегабит в секунду давать, а через минуту меньше модема из 90-х

Paul
17.02.2017
12:19:12
ничего подобного, они все парсят
просто по-разному
ну и да, трансграничные магистрали в Китае - слезы

Max
17.02.2017
14:07:45
Господа, есть у кого нибудь опыт работы с кубом в digitalocean?

Sergey
17.02.2017
14:08:05

Max
17.02.2017
14:09:21
В общем то ничем конечно. Но это не Google container engine...

Sergey
17.02.2017
14:11:31
flannel в руки (или другой оверлей) и поехали.

Jan
17.02.2017
14:40:08
коллеги, я наверное не там вопрос задаю. но не знаю куда еще. на конфе услышал про то, linux bridge для обеспечения сети в виртуалках KVM - какашка. и вместо него надо использовать что-то иное. но вот что?

Михаил
17.02.2017
14:50:48
@pro_kvm
Если у тебя одна машина с квм, то бриджа за глаза

Jan
17.02.2017
15:00:52
почитал. здесь вот теперь тоже пишут, что brctl - deprecated: http://www.linux-kvm.org/page/Networking
но депрекейтед, наверное, потому, что redhat/centos 7 переехал на утилиту ip
а не потому, что что-то плохо
как теперь найти того человека с конфы, с которым я на галерке сидел, он еще наклейки получил?)

Alex
17.02.2017
15:05:03
подскажите как выставить сервис на IP адрес не кластера, (у меня это 10.132.x), а Internal IP (у каждой ноды кластера есть такой адрес в GKE)? Я был уверен читая доку что для этого нужно использовать NodePort, у меня это так
apiVersion: v1
kind: Service
metadata:
name: fallball-connector
labels:
name: fallball-connector
spec:
type: NodePort
ports:
- port: 80
targetPort: 5000
protocol: TCP
selector:
name: fallball-connector

Михаил
17.02.2017
15:09:40

Google

Paul
17.02.2017
15:10:48

Fike
17.02.2017
15:12:30
ты пробовал запросить любую ноду по указанному NodePort?
я даже думаю, что при указании NodePort просто создается дополнительное правило iptrables, которое трафик с этого порта перенаправляет на ClusterIP этого сервиса

Михаил
17.02.2017
15:14:36

Alex
17.02.2017
15:15:19
как оно сейчас работает для того сервиса что я описал:
с любой ноды кластера можно сделать 10.10.19.41:80 и получить ответ
насколько я понимаю 10.10.19.41 это Cluster IP

Fike
17.02.2017
15:15:51
найди через kubectl get svc этот сервис
там будет его NodePort
насколько понимаю, ты можешь обратиться по этому порту к любому участнику кластера снаружи

Alex
17.02.2017
15:16:12
⇒ kubectl get svc
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
fallball-connector 10.10.19.41 <nodes> 80:31823/TCP 11m