Михаил
Anonymous
Denis
Смотрел кто-нибудь на https://github.com/microscaling/microscaling ? :)
Denis
https://medium.com/microscaling-systems/microscaling-a-kubernetes-cluster-53d08f2f8041#.ku7xuh2ry
Denis
@ivan4th что думаешь? :)
Denis
А кто-нибудь настраивал Federation? https://coreos.com/blog/kubernetes-cluster-federation.html
Sn00part
я настраивал
Sn00part
etcd там слабое звено, постоянно глючит
Sn00part
если настроить etcd, то federation работает. правда это глубокая бета, я в прод бы поостерегся
Aleksey [MSK+4]
Denis
Кто нибудь знает к кому можно обратиться за аудитом настройки кассандры и кафки?
Denis
Человек или компания
Sn00part
etcd теряет коннективность и потом и кворум. можно подкрутить таймауты
Aleksey [MSK+4]
Sn00part
он и просто так может. между дц тем более 12 машин, полов около 50
Sn00part
подов
Sn00part
я обновил до 3.0.9 вроде получше стало
Sn00part
а так миллион сообщений в логах cluster unhealthy
Aleksey [MSK+4]
так может стоит подкрутить таймауты на выборы, если кластер поднят в междц?
Sn00part
election timeout крутить можно, но там tradeoff и можно прозевать настоящий фейл)
Sn00part
я с телефона, извините за сумбурность речи
Sn00part
в общем как-то работает на полуручной тяге
Sn00part
между дц сети разные, приходится крутить у всех по-разному
Sn00part
ещё я так понимаю там косты растут из-за служебного трафика. сколько я ещё не разбирался, но по прикидкам до 30% увеличение сетевой нагрузки, смотря как хорошо работает сеть в дц
Sn00part
у меня есть совсем угрюмые дц, с латенси больше 1000 и ещё асинхронные совсем. севера, там особенности такие. на следующей неделе планирую затестить и их тоже
Dmitriy
Привет, Всем! помогите пожалуйста с пролемой. На нодах не поднимаются pod'ы, находятся в состоянии pending. Узнал что виной тому сообщения KubeletHasSufficientDisk, KubeletHasSufficientMemory и KubeletHasNoDiskPressure, которые у меня на каждой ноде в кластере, а потому scheduler не хочет распределять контейнеры по нодам. Как примерно разрешить эту ситацию? Искал, но так и не смог найти подходящего решения.
Anonymous
Хорошо бы знать значения тех ключей которые ты приводишь, но вероятно на нодах кончилось место.
yolkov
сеть точно работает
yolkov
для куба
yolkov
на чем она
Anonymous
Тогда не очень понятно откуда такой вывод
"Узнал что виной тому сообщения KubeletHasSufficientDisk, KubeletHasSufficientMemory и KubeletHasNoDiskPressure, "
Dmitriy
Хорошо бы знать значения тех ключей которые ты приводишь, но вероятно на нодах кончилось место.
OutOfDisk False Fri, 17 Feb 2017 17:29:06 +0600 Mon, 13 Feb 2017 10:50:16 +0600 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Fri, 17 Feb 2017 17:29:06 +0600 Wed, 08 Feb 2017 17:54:11 +0600 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Fri, 17 Feb 2017 17:29:06 +0600 Wed, 08 Feb 2017 17:54:11 +0600 KubeletHasNoDiskPressure kubelet has no disk pressure
Ready True Fri, 17 Feb 2017 17:29:06 +0600 Mon, 13 Feb 2017 10:50:16 +0600 KubeletReady kubelet is posting ready status
Anonymous
Там же везде false. Это тут совсем ни при чем
Dmitriy
сетку я проверял, работает, в самом начале после инсталяции запустил два контейнера с двумя репликами, на разных нодах. Они друг друга видели
yolkov
Еще раз, на чем сеть, у мня такое бывает, когда не могут ИП выдаться для подов
Dmitriy
Flannel + Etcd
yolkov
посмотри логи фланел
Dmitriy
к Etcd подключение по https
Dmitriy
в логах etcd ругань: etcd[2952]: transport: http2Client.notifyError got notified that the client transport was broken unexpected EOF.
Dmitriy
сетую на то что c https flannel не работает нормально
Etki
для сетки нет разницы, http по ней идет, или https
Dmitriy
kube-apiserver[3116]: W0215 06:44:44.967718 3116 controller.go:392] Resetting endpoints for master service "kubernetes" to &TypeMeta{Kind:,APIVersion:,}
Dmitriy
вот это выдает API-Server
Dmitriy
в эту сторону копать?
Logan
Logan
у нас мультирегионный BMR-проект, мне вот на днях должны железо выделить
Anonymous
у меня два кластера но между ними китайский фаервол, я че-то пока очкую объединять учитывая лаги, тем более юзкейсов не вижу
Logan
Logan
насколько я знаю, можно получить право на "трубу" от китайского МВД, но просить придется очень, очень тщательно
Anonymous
ну они парсят только 80 и 443, остальной трафик просто медленно через их роутеры идет потому что они заняты парсингом :)
Anonymous
дело в том что по опыту там скорость не гарантированая: может мегабит в секунду давать, а через минуту меньше модема из 90-х
Logan
ничего подобного, они все парсят
просто по-разному
Logan
ну и да, трансграничные магистрали в Китае - слезы
Max
Господа, есть у кого нибудь опыт работы с кубом в digitalocean?
Sergei
Max
В общем то ничем конечно. Но это не Google container engine...
Sergei
flannel в руки (или другой оверлей) и поехали.
l1njan
коллеги, я наверное не там вопрос задаю. но не знаю куда еще. на конфе услышал про то, linux bridge для обеспечения сети в виртуалках KVM - какашка. и вместо него надо использовать что-то иное. но вот что?
Михаил
@pro_kvm
Михаил
Михаил
Если у тебя одна машина с квм, то бриджа за глаза
l1njan
почитал. здесь вот теперь тоже пишут, что brctl - deprecated: http://www.linux-kvm.org/page/Networking
но депрекейтед, наверное, потому, что redhat/centos 7 переехал на утилиту ip
а не потому, что что-то плохо
l1njan
как теперь найти того человека с конфы, с которым я на галерке сидел, он еще наклейки получил?)
Alex
подскажите как выставить сервис на IP адрес не кластера, (у меня это 10.132.x), а Internal IP (у каждой ноды кластера есть такой адрес в GKE)? Я был уверен читая доку что для этого нужно использовать NodePort, у меня это так
apiVersion: v1
kind: Service
metadata:
name: fallball-connector
labels:
name: fallball-connector
spec:
type: NodePort
ports:
- port: 80
targetPort: 5000
protocol: TCP
selector:
name: fallball-connector
Alex
Alex
Михаил
Logan
Etki
Etki
ты пробовал запросить любую ноду по указанному NodePort?
Etki
я даже думаю, что при указании NodePort просто создается дополнительное правило iptrables, которое трафик с этого порта перенаправляет на ClusterIP этого сервиса
Михаил
Alex
как оно сейчас работает для того сервиса что я описал:
с любой ноды кластера можно сделать 10.10.19.41:80 и получить ответ
Alex
насколько я понимаю 10.10.19.41 это Cluster IP
Etki
найди через kubectl get svc этот сервис
Etki
там будет его NodePort
Etki
насколько понимаю, ты можешь обратиться по этому порту к любому участнику кластера снаружи
Alex
⇒ kubectl get svc
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
fallball-connector 10.10.19.41 <nodes> 80:31823/TCP 11m