@kubernetes_ru

Страница 124 из 958
Константин
16.02.2017
09:37:02
Ребят, вопрос. Можно ли в kubernetes отслеживать все events в реалтайме как в докере?

Ivan
16.02.2017
10:00:24
нет, только если после кто делился.
Про "вот это всё" имеется ввиду, что было или не было. А "толку от вклада" - это слишком общая фраза. Я так понял, что будут рассказывать о "мы молодцы, отправили сотню пулл-реквестов, и теперь кубик научился делать то-то"

Константин
16.02.2017
10:13:29
kubectl get events -w
Посмотрю, спасибо.

Google
kay
16.02.2017
10:40:12
Их можно и в кибану писать и уведомления присылать при определённом событии

Denis
16.02.2017
12:35:49
Кстати вопрос, планируются ли еще митапы подобного плана, если да то когда?)))
Следующий - в марте :) Скоро будет анонс. Сейчас ищем интересные доклады.

Denis
16.02.2017
20:31:01
Смотрел кто-нибудь на https://github.com/microscaling/microscaling ? :)

https://medium.com/microscaling-systems/microscaling-a-kubernetes-cluster-53d08f2f8041#.ku7xuh2ry

Zon
16.02.2017
21:47:19
Смотрел кто-нибудь на https://github.com/microscaling/microscaling ? :)
Мысль здравая, по сути аутоскейлинг не по памяти/процу, а по внешней метрике. Если ещё нет этого в сиггруппах нужно закинуть

Denis
16.02.2017
23:04:37
@ivan4th что думаешь? :)

А кто-нибудь настраивал Federation? https://coreos.com/blog/kubernetes-cluster-federation.html

Artem
17.02.2017
07:43:46
я настраивал

etcd там слабое звено, постоянно глючит

Google
Artem
17.02.2017
07:46:44
если настроить etcd, то federation работает. правда это глубокая бета, я в прод бы поостерегся

Aleksey
17.02.2017
08:50:22
etcd там слабое звено, постоянно глючит
а подробнее можно?что именно глючит?

Denis
17.02.2017
09:11:07
Кто нибудь знает к кому можно обратиться за аудитом настройки кассандры и кафки?

Человек или компания

Artem
17.02.2017
09:18:27
etcd теряет коннективность и потом и кворум. можно подкрутить таймауты

Aleksey
17.02.2017
09:32:42
etcd теряет коннективность и потом и кворум. можно подкрутить таймауты
между дц теряет или где? сколько машин в кластере при этом?

Artem
17.02.2017
09:33:54
он и просто так может. между дц тем более 12 машин, полов около 50

подов

я обновил до 3.0.9 вроде получше стало

а так миллион сообщений в логах cluster unhealthy

Aleksey
17.02.2017
09:37:15
так может стоит подкрутить таймауты на выборы, если кластер поднят в междц?

Artem
17.02.2017
09:39:06
election timeout крутить можно, но там tradeoff и можно прозевать настоящий фейл)

я с телефона, извините за сумбурность речи

в общем как-то работает на полуручной тяге

между дц сети разные, приходится крутить у всех по-разному

ещё я так понимаю там косты растут из-за служебного трафика. сколько я ещё не разбирался, но по прикидкам до 30% увеличение сетевой нагрузки, смотря как хорошо работает сеть в дц

у меня есть совсем угрюмые дц, с латенси больше 1000 и ещё асинхронные совсем. севера, там особенности такие. на следующей неделе планирую затестить и их тоже

Дмитрий
17.02.2017
11:33:47
Привет, Всем! помогите пожалуйста с пролемой. На нодах не поднимаются pod'ы, находятся в состоянии pending. Узнал что виной тому сообщения KubeletHasSufficientDisk, KubeletHasSufficientMemory и KubeletHasNoDiskPressure, которые у меня на каждой ноде в кластере, а потому scheduler не хочет распределять контейнеры по нодам. Как примерно разрешить эту ситацию? Искал, но так и не смог найти подходящего решения.

Pavel
17.02.2017
11:35:24
Хорошо бы знать значения тех ключей которые ты приводишь, но вероятно на нодах кончилось место.

Дмитрий
17.02.2017
11:37:38
Хорошо бы знать значения тех ключей которые ты приводишь, но вероятно на нодах кончилось место.
нет, чистые ноды, только после установки. Развернул кластр с нуля. Да и места много отведено под кластер, точнее под /var в котором я полагаю хранятся данные для запуска

Google
yolkov
17.02.2017
11:38:21
сеть точно работает

для куба

на чем она

Pavel
17.02.2017
11:38:37
Тогда не очень понятно откуда такой вывод "Узнал что виной тому сообщения KubeletHasSufficientDisk, KubeletHasSufficientMemory и KubeletHasNoDiskPressure, "

Дмитрий
17.02.2017
11:38:39
Хорошо бы знать значения тех ключей которые ты приводишь, но вероятно на нодах кончилось место.
OutOfDisk False Fri, 17 Feb 2017 17:29:06 +0600 Mon, 13 Feb 2017 10:50:16 +0600 KubeletHasSufficientDisk kubelet has sufficient disk space available MemoryPressure False Fri, 17 Feb 2017 17:29:06 +0600 Wed, 08 Feb 2017 17:54:11 +0600 KubeletHasSufficientMemory kubelet has sufficient memory available DiskPressure False Fri, 17 Feb 2017 17:29:06 +0600 Wed, 08 Feb 2017 17:54:11 +0600 KubeletHasNoDiskPressure kubelet has no disk pressure Ready True Fri, 17 Feb 2017 17:29:06 +0600 Mon, 13 Feb 2017 10:50:16 +0600 KubeletReady kubelet is posting ready status

Pavel
17.02.2017
11:39:15
Там же везде false. Это тут совсем ни при чем

Дмитрий
17.02.2017
11:41:06
сетку я проверял, работает, в самом начале после инсталяции запустил два контейнера с двумя репликами, на разных нодах. Они друг друга видели

yolkov
17.02.2017
11:41:17
Еще раз, на чем сеть, у мня такое бывает, когда не могут ИП выдаться для подов

Дмитрий
17.02.2017
11:41:35
Flannel + Etcd

yolkov
17.02.2017
11:41:46
посмотри логи фланел

Дмитрий
17.02.2017
11:41:50
к Etcd подключение по https

в логах etcd ругань: etcd[2952]: transport: http2Client.notifyError got notified that the client transport was broken unexpected EOF.

сетую на то что c https flannel не работает нормально

Fike
17.02.2017
11:44:11
для сетки нет разницы, http по ней идет, или https

Дмитрий
17.02.2017
11:44:59
kube-apiserver[3116]: W0215 06:44:44.967718 3116 controller.go:392] Resetting endpoints for master service "kubernetes" to &TypeMeta{Kind:,APIVersion:,}

вот это выдает API-Server

в эту сторону копать?

Paul
17.02.2017
12:10:48
А кто-нибудь настраивал Federation? https://coreos.com/blog/kubernetes-cluster-federation.html
мне это предстоит, я статью напишу об опыте, если интересно будет

у нас мультирегионный BMR-проект, мне вот на днях должны железо выделить

Andrey
17.02.2017
12:12:16
у меня два кластера но между ними китайский фаервол, я че-то пока очкую объединять учитывая лаги, тем более юзкейсов не вижу

Google
Paul
17.02.2017
12:14:14
насколько я знаю, можно получить право на "трубу" от китайского МВД, но просить придется очень, очень тщательно

Andrey
17.02.2017
12:16:07
ну они парсят только 80 и 443, остальной трафик просто медленно через их роутеры идет потому что они заняты парсингом :)

дело в том что по опыту там скорость не гарантированая: может мегабит в секунду давать, а через минуту меньше модема из 90-х

Paul
17.02.2017
12:19:12
ничего подобного, они все парсят просто по-разному

ну и да, трансграничные магистрали в Китае - слезы

Max
17.02.2017
14:07:45
Господа, есть у кого нибудь опыт работы с кубом в digitalocean?

Sergey
17.02.2017
14:08:05
Господа, есть у кого нибудь опыт работы с кубом в digitalocean?
а чем он отличается от всего остального?

Max
17.02.2017
14:09:21
В общем то ничем конечно. Но это не Google container engine...

Sergey
17.02.2017
14:11:31
flannel в руки (или другой оверлей) и поехали.

Jan
17.02.2017
14:40:08
коллеги, я наверное не там вопрос задаю. но не знаю куда еще. на конфе услышал про то, linux bridge для обеспечения сети в виртуалках KVM - какашка. и вместо него надо использовать что-то иное. но вот что?

Jan
17.02.2017
15:00:52
почитал. здесь вот теперь тоже пишут, что brctl - deprecated: http://www.linux-kvm.org/page/Networking но депрекейтед, наверное, потому, что redhat/centos 7 переехал на утилиту ip а не потому, что что-то плохо

как теперь найти того человека с конфы, с которым я на галерке сидел, он еще наклейки получил?)

Alex
17.02.2017
15:05:03
подскажите как выставить сервис на IP адрес не кластера, (у меня это 10.132.x), а Internal IP (у каждой ноды кластера есть такой адрес в GKE)? Я был уверен читая доку что для этого нужно использовать NodePort, у меня это так apiVersion: v1 kind: Service metadata: name: fallball-connector labels: name: fallball-connector spec: type: NodePort ports: - port: 80 targetPort: 5000 protocol: TCP selector: name: fallball-connector





Google
Fike
17.02.2017
15:12:30
ты пробовал запросить любую ноду по указанному NodePort?

я даже думаю, что при указании NodePort просто создается дополнительное правило iptrables, которое трафик с этого порта перенаправляет на ClusterIP этого сервиса

Alex
17.02.2017
15:15:19
как оно сейчас работает для того сервиса что я описал: с любой ноды кластера можно сделать 10.10.19.41:80 и получить ответ

насколько я понимаю 10.10.19.41 это Cluster IP

Fike
17.02.2017
15:15:51
найди через kubectl get svc этот сервис

там будет его NodePort

насколько понимаю, ты можешь обратиться по этому порту к любому участнику кластера снаружи

Alex
17.02.2017
15:16:12
⇒ kubectl get svc NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE fallball-connector 10.10.19.41 <nodes> 80:31823/TCP 11m

Страница 124 из 958