
Михаил
07.06.2018
09:08:46

Anton
07.06.2018
09:08:47
Я гуглил по шедулеру, нахрдил немного не то

Andor
07.06.2018
09:08:54
а, это да

Anton
07.06.2018
09:17:44
А лимит 100 подов на ноду планируют увеличивать?

Google

Anton
07.06.2018
09:17:50
Кто в курсе

Andor
07.06.2018
09:18:12
а его же вроде расхардкодили
не?

Anton
07.06.2018
09:18:31
В наличии есть ксеоновые ноды по 256гб памяти
At v1.10, Kubernetes supports clusters with up to 5000 nodes. More specifically, we support configurations that meet all of the following criteria:
No more than 5000 nodes
No more than 150000 total pods
No more than 300000 total containers
No more than 100 pods per node

Andor
07.06.2018
09:18:50
зионовые

Anton
07.06.2018
09:19:12
У мну 1.9.5 даже

Михаил
07.06.2018
09:19:23

Andor
07.06.2018
09:21:05
мы на виртуалки поломали

Михаил
07.06.2018
09:21:17

Andor
07.06.2018
09:21:35
брат жив?

Михаил
07.06.2018
09:21:42
ага

Google

Andor
07.06.2018
09:22:01
а какая сеть и какие подсети на ноду?

Михаил
07.06.2018
09:22:15
два варианта
с бриджами и калико
ты с Мск?

Andor
07.06.2018
09:22:28
уже нет
я тракторнул полгода назад
я помню как докер начинал уходить в себя на 100 подах на одном демоне
раскладывание по вируталкам на том же хосте помогало

Михаил
07.06.2018
09:25:36
думаем поднять лимиты

Andor
07.06.2018
09:25:43
@SinTeZoiD у тебя сколько подов на ноде выходит?
щас у нас /26 на ноду с калико (побороли вчера в этом же чяте), но нода = виртуалка на железном хосте

Михаил
07.06.2018
09:27:27

Andor
07.06.2018
09:27:36
ну точнее калико потом (судя по доке) выделит потом новый /26 когда старый кончится
не-не, я так не делаю, это калико делает

Andrey
07.06.2018
09:27:52

Andor
07.06.2018
09:28:02
и "на ноду" - неправильно я написал

Andrey
07.06.2018
09:28:35

Andor
07.06.2018
09:28:44
угу

Михаил
07.06.2018
09:28:51

Google

Andor
07.06.2018
09:28:54
и на ходу можно подправить
неудобно, но сработало

Михаил
07.06.2018
09:29:18

Andor
07.06.2018
09:30:01
и не бэкпортили в апстрим наработки? :(

Roman
07.06.2018
09:30:25
kube-controller-manager --allocate-node-cidrs=true --cluster-cidr=10.20.24.0/22 --node-cidr-mask-size=26
реально размерность сети на ноду выбирает не сам калико
fyi конфиг кубадма в этом месте немного сломан и задается вот так
controllerManagerExtraArgs:
allocate-node-cidrs: "true"
cluster-cidr: "10.20.24.0/22"
node-cidr-mask-size: "26"

Konstantin
07.06.2018
09:31:26
Коллеги, немного нубский вопрос, но стесняться некого. Headless сервис для чего вообще юзается? Можете кратко пояснить?

Andor
07.06.2018
09:31:37
ваще да, это всё Рома заборол, не "мы" :)
Рома - молодец

Konstantin
07.06.2018
09:32:45
Это получается сервис без балансинга или как?

Andrey
07.06.2018
09:33:20
просто выдает список A записей для эндпоинтов

Konstantin
07.06.2018
09:36:14
Все равно чуть не вьезжаю. Получается тупо чтобы поды внутри statefulset общались между собой по одному имени?
?

Andor
07.06.2018
09:36:34
наоборот
ну то есть не обязательно внутри

kvaps
07.06.2018
09:37:42

Konstantin
07.06.2018
09:39:03

Andor
07.06.2018
09:40:13

Google

Andor
07.06.2018
09:40:37

kvaps
07.06.2018
09:41:35

Konstantin
07.06.2018
09:42:08

kvaps
07.06.2018
09:42:27
подозреваю тут, но калико может свой конфиг юзает, не уверен

Roman
07.06.2018
09:49:13
я так понял что калико не имеет отношения к выдаче блока на ноду, это делает именно сам kube-controller-manager. А калико только анонсит эту сеть

kvaps
07.06.2018
09:50:01
вот я тоже всегда думал что так

Andor
07.06.2018
09:50:47
ну мы просто со стороны калико искали почему анонсится /24 когда мы ожидали /26

kvaps
07.06.2018
09:51:59

Roman
07.06.2018
09:52:16
моя гипотеза в том, что калико же не кубер-специфичный продукт. они умеют интегрироваться с разными системами и в частности с кубером. Но возможности калико шире, чем возможности кубера. так, они умеют например динамически менять cidr кластера. Задаешь второй диапазон, он способен перетащить анонсы на него. Но вот кубер так не умеет поэтому эта возможность просто не работает
судя по всему с выделением сетей так же. Калико это умеет, и там как раз захардкожено /26 о чем люди просят сделать конфигуряемо. Но в случае с кубером эта codepath просто не используется


kvaps
07.06.2018
09:55:59
моя гипотеза в том, что калико же не кубер-специфичный продукт. они умеют интегрироваться с разными системами и в частности с кубером. Но возможности калико шире, чем возможности кубера. так, они умеют например динамически менять cidr кластера. Задаешь второй диапазон, он способен перетащить анонсы на него. Но вот кубер так не умеет поэтому эта возможность просто не работает
Ну romana, например, не использует кубернетисовый spec.podCIDR вообще, она назначает диапазоны динамически из своего etcd, подозреваю что калико мог-бы так же, но в руководстве kubeadm сказанно, что kubeadm init необходимо запускать с параметром --pod-network-cidr=192.168.0.0/16 что и включает по умолчанию выделение cidr's на ноду средствами kubernetes

Maksim
07.06.2018
09:57:27

kvaps
07.06.2018
09:57:34

Ilya
07.06.2018
09:57:47
Всем привет!
А подскажите, у меня вот есть daemonset, мне нужно попасть на под, который запущен на той ноде, в которую стучусь, как это лучше сделать?
Изначально я написал балансировку по IP в Ingress'e (Traefik), но как-то мерджить все это дело стало очень трудно и решили что нужно как-то решать средствами кубика

kvaps
07.06.2018
09:59:12

Maksim
07.06.2018
10:00:06
на оборот. Раньше хранил в своём, теперь может в kuve-api

Roman
07.06.2018
10:00:40
там опять же разные режимы. Он умеет и CRD юзать, и etcd.
Возможностей куча, документация не поспевает за развитием сильно.

Maksim
07.06.2018
10:01:06
Вернее да же не так. Он всегда хранит всё в своём etcd. Но появилась опция ипользовать это в сущности кубера вместо личного etcd, что бы управлять и из кубера.

Google

Roman
07.06.2018
10:02:22
Если не ошибаюсь, при чистой установке 3 версии etcd вообще не используется. Пишет в датастор кубера напрямую

Anton
07.06.2018
10:05:11

Михаил
07.06.2018
10:05:58

Anton
07.06.2018
10:06:04

Maksim
07.06.2018
10:07:32

Roman
07.06.2018
10:09:44
https://docs.projectcalico.org/v3.1/getting-started/kubernetes/installation/calico
не вижу чтобы etcd как-то использовался во варианте установки
Installing with the Kubernetes API datastore—50 nodes or less

Stanislav
07.06.2018
10:10:13
Кто нибудь юзал 2 различных StorageClass на базе rbd?
Как они вместе уживаются
?

Roman
07.06.2018
10:13:48
ну то есть я ставил калико вообще никак не указывая ему где endpoints etcd имеющиеся, и внутри кластера его личных подов с etcd тоже не вижу

Maksim
07.06.2018
10:18:04

Stanislav
07.06.2018
10:18:32
Спс

Maksim
07.06.2018
10:20:06

Roman
07.06.2018
10:21:01


Max
07.06.2018
10:32:16
гайз поднял на трех виртуалках куб с помощью ранчера по этому гайду
https://rancher.com/docs/rancher/v2.x/en/installation/ha-server-install/
посчитал что пункт с лоад балансером мне не нужен(прописал - в хостс каждой машины внутреннюю сеть виртуалбокса)
Консоль ранчера все ок - проблема в том что я не могу из контейнера одной ноды допинговать до контейнера другой ноды
ifconfig
eth0 Link encap:Ethernet HWaddr d6:b4:13:95:7d:35
inet addr:10.42.0.4 Bcast:0.0.0.0 Mask:255.255.255.255
inet6 addr: fe80::d4b4:13ff:fe95:7d35/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:400 errors:0 dropped:0 overruns:0 frame:0
TX packets:454 errors:0 dropped:1 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:51051 (49.8 KiB) TX bytes:35620 (34.7 KiB)
ping
PING 10.42.1.22 (10.42.1.22): 56 data bytes
92 bytes from 10.0.2.15: Time to live exceeded
nslookup для сервиса
Server: 10.43.0.10
Address: 10.43.0.10#53
Name: katacoda2.default.svc.cluster.local
Address: 10.42.0.18
Name: katacoda2.default.svc.cluster.local
Address: 10.42.0.19
Name: katacoda2.default.svc.cluster.local
Address: 10.42.1.22
если я вижу такой nslookup это значит что я создал сервис корректно да?


Stanislav
07.06.2018
10:34:17
Никто не сталкивался с такой магией, был изначальный деплоймент, он так криво удалился что остался один под, так вот в кубике нет ни того деплоймента, ни того репликсетаа, но под при удалении пересоздается заного)
Ребут не помог) это тестовый кластер, могу себе позволить ребут всего)
Жесть, только удаление NS помогло, и то не с первого раза)

Anton
07.06.2018
10:43:33
Миникуб?