@kubernetes_ru

Страница 607 из 958
Михаил
07.06.2018
09:08:46
в смысле? которые лимиты?
на количество перезапуска в случае fail

Anton
07.06.2018
09:08:47
Я гуглил по шедулеру, нахрдил немного не то

Andor
07.06.2018
09:08:54
а, это да

Anton
07.06.2018
09:17:44
А лимит 100 подов на ноду планируют увеличивать?

Google
Anton
07.06.2018
09:17:50
Кто в курсе

Andor
07.06.2018
09:18:12
а его же вроде расхардкодили

не?

Anton
07.06.2018
09:18:31
В наличии есть ксеоновые ноды по 256гб памяти

At v1.10, Kubernetes supports clusters with up to 5000 nodes. More specifically, we support configurations that meet all of the following criteria: No more than 5000 nodes No more than 150000 total pods No more than 300000 total containers No more than 100 pods per node

Andor
07.06.2018
09:18:50
зионовые

Anton
07.06.2018
09:19:12
У мну 1.9.5 даже

Andor
07.06.2018
09:21:05
мы на виртуалки поломали

Михаил
07.06.2018
09:21:17
Andor
07.06.2018
09:21:35
брат жив?

Михаил
07.06.2018
09:21:42
ага

Google
Andor
07.06.2018
09:22:01
а какая сеть и какие подсети на ноду?

Михаил
07.06.2018
09:22:15
два варианта с бриджами и калико

ты с Мск?

Andor
07.06.2018
09:22:28
уже нет

я тракторнул полгода назад

я помню как докер начинал уходить в себя на 100 подах на одном демоне

раскладывание по вируталкам на том же хосте помогало

Михаил
07.06.2018
09:25:36
думаем поднять лимиты

Andor
07.06.2018
09:25:43
@SinTeZoiD у тебя сколько подов на ноде выходит?

щас у нас /26 на ноду с калико (побороли вчера в этом же чяте), но нода = виртуалка на железном хосте

Andor
07.06.2018
09:27:36
ну точнее калико потом (судя по доке) выделит потом новый /26 когда старый кончится

не-не, я так не делаю, это калико делает

Andor
07.06.2018
09:28:02
и "на ноду" - неправильно я написал

мне интересно, как
kubeadm зачем-то задавал /24

Andrey
07.06.2018
09:28:35
kubeadm зачем-то задавал /24
о как. а у него это где-то настраивается?

Andor
07.06.2018
09:28:44
угу

Михаил
07.06.2018
09:28:51
@SinTeZoiD у тебя сколько подов на ноде выходит?
я вот прямо сейчас посмотрел 100 не превышаем

Google
Andor
07.06.2018
09:28:54
и на ходу можно подправить

неудобно, но сработало

Михаил
07.06.2018
09:29:18
не-не, я так не делаю, это калико делает
я просто не знаю как делает ваниальный калико ) мы его распотрошили немного)

Andor
07.06.2018
09:30:01
и не бэкпортили в апстрим наработки? :(

Roman
07.06.2018
09:30:25
kube-controller-manager --allocate-node-cidrs=true --cluster-cidr=10.20.24.0/22 --node-cidr-mask-size=26 реально размерность сети на ноду выбирает не сам калико fyi конфиг кубадма в этом месте немного сломан и задается вот так controllerManagerExtraArgs: allocate-node-cidrs: "true" cluster-cidr: "10.20.24.0/22" node-cidr-mask-size: "26"

Konstantin
07.06.2018
09:31:26
Коллеги, немного нубский вопрос, но стесняться некого. Headless сервис для чего вообще юзается? Можете кратко пояснить?

Andor
07.06.2018
09:31:37
ваще да, это всё Рома заборол, не "мы" :)

Рома - молодец

Konstantin
07.06.2018
09:32:45
Это получается сервис без балансинга или как?

Andrey
07.06.2018
09:33:20
просто выдает список A записей для эндпоинтов

Konstantin
07.06.2018
09:36:14
Все равно чуть не вьезжаю. Получается тупо чтобы поды внутри statefulset общались между собой по одному имени?

?

Andor
07.06.2018
09:36:34
наоборот

ну то есть не обязательно внутри

kvaps
07.06.2018
09:37:42
ну точнее калико потом (судя по доке) выделит потом новый /26 когда старый кончится
Ух ты, а давно так калико умеет? Romana тоже так делает, только там блоки /29 по дефолту

Konstantin
07.06.2018
09:39:03
ну то есть не обязательно внутри
Вот к примеру есть statefelset с двумя репликами. Нафиг им headless сервис?

Andor
07.06.2018
09:40:13
Ух ты, а давно так калико умеет? Romana тоже так делает, только там блоки /29 по дефолту
я честно говоря не знаю, с этим @rgersh вчера ковырялся и скидывал цитату на какой-то их тикет

Google
Andor
07.06.2018
09:40:37
Вот к примеру есть statefelset с двумя репликами. Нафиг им headless сервис?
да не обязателен он, ты можешь ручками ходить в каждый из них

kvaps
07.06.2018
09:41:35
о как. а у него это где-то настраивается?
$ grep cidr /etc/kubernetes/manifests/kube-controller-manager.yaml - --allocate-node-cidrs=true - --cluster-cidr=10.244.0.0/16 - --node-cidr-mask-size=24

kvaps
07.06.2018
09:42:27
подозреваю тут, но калико может свой конфиг юзает, не уверен

Roman
07.06.2018
09:49:13
я так понял что калико не имеет отношения к выдаче блока на ноду, это делает именно сам kube-controller-manager. А калико только анонсит эту сеть

kvaps
07.06.2018
09:50:01
вот я тоже всегда думал что так

Andor
07.06.2018
09:50:47
ну мы просто со стороны калико искали почему анонсится /24 когда мы ожидали /26

Roman
07.06.2018
09:52:16
моя гипотеза в том, что калико же не кубер-специфичный продукт. они умеют интегрироваться с разными системами и в частности с кубером. Но возможности калико шире, чем возможности кубера. так, они умеют например динамически менять cidr кластера. Задаешь второй диапазон, он способен перетащить анонсы на него. Но вот кубер так не умеет поэтому эта возможность просто не работает

судя по всему с выделением сетей так же. Калико это умеет, и там как раз захардкожено /26 о чем люди просят сделать конфигуряемо. Но в случае с кубером эта codepath просто не используется

kvaps
07.06.2018
09:55:59
моя гипотеза в том, что калико же не кубер-специфичный продукт. они умеют интегрироваться с разными системами и в частности с кубером. Но возможности калико шире, чем возможности кубера. так, они умеют например динамически менять cidr кластера. Задаешь второй диапазон, он способен перетащить анонсы на него. Но вот кубер так не умеет поэтому эта возможность просто не работает
Ну romana, например, не использует кубернетисовый spec.podCIDR вообще, она назначает диапазоны динамически из своего etcd, подозреваю что калико мог-бы так же, но в руководстве kubeadm сказанно, что kubeadm init необходимо запускать с параметром --pod-network-cidr=192.168.0.0/16 что и включает по умолчанию выделение cidr's на ноду средствами kubernetes

kvaps
07.06.2018
09:57:34
ну мы просто со стороны калико искали почему анонсится /24 когда мы ожидали /26
Скорее всего вы обновили node-cidr-mask-size для кластера, а spec.podCIDR для старых нод остался прежний, потому /24 и выделялось как и раньше для них

Ilya
07.06.2018
09:57:47
Всем привет!

А подскажите, у меня вот есть daemonset, мне нужно попасть на под, который запущен на той ноде, в которую стучусь, как это лучше сделать? Изначально я написал балансировку по IP в Ingress'e (Traefik), но как-то мерджить все это дело стало очень трудно и решили что нужно как-то решать средствами кубика

kvaps
07.06.2018
09:59:12
Maksim
07.06.2018
10:00:06
на оборот. Раньше хранил в своём, теперь может в kuve-api

Roman
07.06.2018
10:00:40
там опять же разные режимы. Он умеет и CRD юзать, и etcd.

Возможностей куча, документация не поспевает за развитием сильно.

Maksim
07.06.2018
10:01:06
Вернее да же не так. Он всегда хранит всё в своём etcd. Но появилась опция ипользовать это в сущности кубера вместо личного etcd, что бы управлять и из кубера.

Google
Roman
07.06.2018
10:02:22
Если не ошибаюсь, при чистой установке 3 версии etcd вообще не используется. Пишет в датастор кубера напрямую

Anton
07.06.2018
10:05:11
хочешь бареметал зафигачить?)
угу почистить надо там proxmox стоял

Михаил
07.06.2018
10:05:58
и не бэкпортили в апстрим наработки? :(
А там и так все взлетело, просто проявить фантазию и вытащить из докера

Maksim
07.06.2018
10:07:32
Если не ошибаюсь, при чистой установке 3 версии etcd вообще не используется. Пишет в датастор кубера напрямую
Ошибаешься. При чистой установке требуется etcd. Есть возможность, отказаться от контроллера создав контроллер в кубере + отказаться от etcd и писать в apiserver

Roman
07.06.2018
10:09:44
https://docs.projectcalico.org/v3.1/getting-started/kubernetes/installation/calico не вижу чтобы etcd как-то использовался во варианте установки Installing with the Kubernetes API datastore—50 nodes or less

Stanislav
07.06.2018
10:10:13
Кто нибудь юзал 2 различных StorageClass на базе rbd?

Как они вместе уживаются

?

Roman
07.06.2018
10:13:48
ну то есть я ставил калико вообще никак не указывая ему где endpoints etcd имеющиеся, и внутри кластера его личных подов с etcd тоже не вижу

Maksim
07.06.2018
10:18:04
Stanislav
07.06.2018
10:18:32
Спс

Roman
07.06.2018
10:21:01
там опять же разные режимы. Он умеет и CRD юзать, и etcd.
так я это и написал. И то, что при выборе CRD, etcd не используется.

Max
07.06.2018
10:32:16
гайз поднял на трех виртуалках куб с помощью ранчера по этому гайду https://rancher.com/docs/rancher/v2.x/en/installation/ha-server-install/ посчитал что пункт с лоад балансером мне не нужен(прописал - в хостс каждой машины внутреннюю сеть виртуалбокса) Консоль ранчера все ок - проблема в том что я не могу из контейнера одной ноды допинговать до контейнера другой ноды ifconfig eth0 Link encap:Ethernet HWaddr d6:b4:13:95:7d:35 inet addr:10.42.0.4 Bcast:0.0.0.0 Mask:255.255.255.255 inet6 addr: fe80::d4b4:13ff:fe95:7d35/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:400 errors:0 dropped:0 overruns:0 frame:0 TX packets:454 errors:0 dropped:1 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:51051 (49.8 KiB) TX bytes:35620 (34.7 KiB) ping PING 10.42.1.22 (10.42.1.22): 56 data bytes 92 bytes from 10.0.2.15: Time to live exceeded nslookup для сервиса Server: 10.43.0.10 Address: 10.43.0.10#53 Name: katacoda2.default.svc.cluster.local Address: 10.42.0.18 Name: katacoda2.default.svc.cluster.local Address: 10.42.0.19 Name: katacoda2.default.svc.cluster.local Address: 10.42.1.22

если я вижу такой nslookup это значит что я создал сервис корректно да?

Stanislav
07.06.2018
10:34:17
Никто не сталкивался с такой магией, был изначальный деплоймент, он так криво удалился что остался один под, так вот в кубике нет ни того деплоймента, ни того репликсетаа, но под при удалении пересоздается заного)

Ребут не помог) это тестовый кластер, могу себе позволить ребут всего)

Жесть, только удаление NS помогло, и то не с первого раза)

Anton
07.06.2018
10:43:33
Миникуб?

Страница 607 из 958