
Alex
19.02.2017
18:37:37
похоже да это его например роль
когда появляется новый эвент сделать балансировку
вообщем сейчас я просто делаю kubectl scale +1
чтобы вынудить процесс spred-а

Google

Alex
19.02.2017
18:40:24
а да еще важно указывать лимиты
если из нет у подов то kube пытается все контейнеры сложить на одну ноду

Denis
19.02.2017
20:12:34
https://docs.google.com/spreadsheets/d/1g9JU-67ncE4MHMeKnmslm-JO_aKeltv2kg_Dd6VFmKs/edit#gid=0
Просто чтобы быть в курсе "когда" и "что")

Andrew
20.02.2017
12:25:06
https://github.com/projectcalico/cni-plugin/releases/tag/v1.6.0
теперь можно выдавать подам ip адреса из разных пулов

yolkov
20.02.2017
12:28:27
а несколько можно?
>For now, these annotations will only support a single IP in each list, but will be formatted as lists for future-proofing since we know that CNI will support multiple IP addresses in the future. When the time comes then multiple IPs will be supported.

Andrew
20.02.2017
12:38:42
в доке явно не сказано, я сам не пробовал
ок

yolkov
20.02.2017
12:39:52
а как роллингапдейт будет проходить?
у нового пода будет тот же ИП, как и у старого?

Andrew
20.02.2017
12:44:17
скорее всего будет новый, т.к. создается новый под. надо пробовать

Google

Дмитрий
20.02.2017
14:00:34
Не подскажете что означает сообщение на одной из нод которое выдает в лог scheduler: lock is held by kube-node02 and has not yet expired?

Ivan
20.02.2017
17:21:28
scheduler работает на самом деле только один (который elected), остальные - ждут своей очереди на случай если текущий отвалится
пока ждут - "lock is held" - это норма

Zon
21.02.2017
18:04:53

Vladimir
21.02.2017
18:05:39
чур меня

Fike
21.02.2017
18:05:59
мне б столько времени

Dmitry
21.02.2017
18:09:20
ну собсна после этого можно и остановиться в развитии
это вершина
уроборос

Gleb
21.02.2017
18:09:38
Ехал docker через docker. И т.д.

Dmitry
21.02.2017
18:09:44
скайнет почти что

Zon
21.02.2017
18:23:50

Ivan
21.02.2017
19:01:25
мы тоже о таком варианте с virtlet подумываем. допустим, есть k8s кластер с поддержкой виртуалок через virtlet, а надо править сам k8s или какую-то к нему примочку. Соответственно, нужен тестовый кластер. В одних случаях kubeadm-dind-cluster / kubernetes-dind-cluster или local-cluster либо даже minikube (в зависимости от того, надо ли много нод и надо ли собирать k8s с исходников) но иногда нужно N нод, чтобы это были виртуалки и чтобы кластер стартовал не полчаса, как kube-up с vagrant - то почему нет

Zon
21.02.2017
19:40:27
Презентация была от giantswarm, и у них это прод, так как они продают селфхостед кубернетес

Denis
21.02.2017
19:41:23
Ну а почему нет? :) Вполне юзабельно

Zon
21.02.2017
19:44:26
Желающие посмотреть на презентацию вживую - приезжайте на kubecon в Берлин, через месяц
Мне очень понравилась идея использовать свои third-party resources. Как-то я их упустил раньше

Михаил
21.02.2017
19:49:03

Zon
21.02.2017
19:51:19
Есть стандартные ресурсы: деплоймент, сикрет и тд, а можно делать свои и они будут через kubectl работать. Например: PKI через это можно сделать, как я понял
Чтоб при создании пода vault ему личный сертификат сделал

Google

Zon
21.02.2017
19:59:27
поясни
https://kubernetes.io/docs/user-guide/thirdpartyresources/ базовая дока

Denis
21.02.2017
19:59:55

Zon
21.02.2017
20:00:57

yolkov
21.02.2017
20:19:10
Келси описал свою схему работы с волтом https://github.com/kelseyhightower/vault-controller
Как использовать “третьи ресурсы” кореосовцы пишут неплохо https://coreos.com/blog/introducing-operators.html

Denis
21.02.2017
20:39:35
Да
https://coreos.com/tectonic/releases/ - Они так активно пилят, кто-нибудь вообще использует Tectonic?)

Ihor
21.02.2017
22:51:29
кто-то использует
нужно понимать что это продукт в первую очередь для энтерпрайзов (или тех, кто рядом), так что количество клиентов - не ключевое

Denis
21.02.2017
23:53:30
Но enterprise очень относительное понятие

Дмитрий
22.02.2017
11:06:52

Ivan
22.02.2017
11:07:07
да

Дмитрий
22.02.2017
11:16:58
да
Хотел бы задать еще один вопрос по поводу мастера который прописывается у scheduler'а? Что это за адрес? Я поднимаю VIP pacemaker'ом на одной из нод кластера и тем самым даю понять что мастер это apiserver. Я правильно делаю? Что-то мне говорит, что это в корне не верно!

yolkov
22.02.2017
11:19:05
аписервер можно любой использовать, они все одинаковые, как ты их забалнасишь, твое дело

Дмитрий
22.02.2017
11:19:42
эти собщения идут непрерывно в логах аписервера

yolkov
22.02.2017
11:22:19
внутри кластера они по сути раундробином выбираются
посмотри kubectl -n default get ep kubernetes
ты похоже перестарался с писмайкером
сделай фиксированные ИП для всех аписерверов и один виртуальный который будет ХА для внешних клиентов
внутри куба этот вип не используй

Google

Дмитрий
22.02.2017
11:24:06

yolkov
22.02.2017
11:24:13
хотя для шедулера и контроллера можно указать
у меня 3 эндпоинта выдает
3 физич адреса аписерверов

Дмитрий
22.02.2017
11:25:17
у меня только один, данного сервера с которого делаю запрос (на котором выполняю команду)

Admin
ERROR: S client not available

Дмитрий
22.02.2017
11:25:37
странно

yolkov
22.02.2017
11:26:17
сколько у тебя мастер нод?

Дмитрий
22.02.2017
11:26:46
и кстати, телнетом подключаюсь, порт не доступен, нет такого сокета в системе
у меня функции мастер нод и вычислительных совмещены

yolkov
22.02.2017
11:28:07
чтото видимо не правильно настроил

Дмитрий
22.02.2017
11:29:48
я указал secure-port=0

yolkov
22.02.2017
11:36:16
надо смотреть с какими опциями запустил компоненты, так тяжело понять, зачем тебе вообще сейчас HA? обойдись без него пока

Дмитрий
22.02.2017
11:41:22
почему kubernetes в качестве endpoint'а использует HTTPS, я не думал пока его использовать. Или это обязательная часть настройки?

Antony
22.02.2017
20:38:01
Необязательная, API server стартует и на https и на http просто по дефолту http вешается на 127.0.0.1, переназначь его на 0.0.0.0 и будет работать, почитай флаги запуска сервисов


Дмитрий
23.02.2017
04:43:59
Необязательная, API server стартует и на https и на http просто по дефолту http вешается на 127.0.0.1, переназначь его на 0.0.0.0 и будет работать, почитай флаги запуска сервисов
1) сокеты apiserver слушаются на 0.0.0.0:8080 и 0.0.0.0:6443
2) компоненты kubernetes цепляются на apiserver на порт 8080 по http через параметр —master (не могу перевести на https, так как не вижу параметры в которых можно было бы использовать https у всё тех же самых компонент)
3) сами apiserver'а обращаются к самим себе на localhost на https порт 6443 (проверено, экспериментировал с сертификатами, в которых пришлось прописать alternaivemane = localhost, чтобы исчезли сообщения об ошибках при подключении к самим себе на localhost!!!!!!!!!)
4) в конце концов постоянно вылетает сообщение "Resetting endpoints for master service "kubernetes" to &TypeMeta{Kind:,APIVersion:,}", видимо это и есть конень моих проблем

Artem
23.02.2017
07:03:26
надо делать по хауту
там можно и без https

Google

Artem
23.02.2017
07:04:12
но лучше с ним конечно
за https отвечают флаги запуска сервисов их много
должен быть сертификат и мгенеренный secret
- --tls-cert-file=/etc/kubernetes/ssl/apiserver.pem - --tls-private-key-file=/etc/kubernetes/ssl/apiserver-key.pem - --client-ca-file=/etc/kubernetes/ssl/ca.pem - --service-account-key-file=/etc/kubernetes/ssl/apiserver-key.pem
вот такого рода флаги
если не нужен https api server надо запускать с "--insecure-bind-address=0.0.0.0"
а шедулер и контроллер с --master=http://127.0.0.1:8080
но это зависит от версии кубернетеса и как ты его запускал)
без https возможно будут проблемы с запуском дашборда всякого и dns. fabric8 тоже не запустится из коробки. вроде решаемо все, не помню уже точно
вот я прям щас поднял без https
1.3
secret не сгенерился
лучше ввести ещё 4 команды и серты все же сгенерить.

Denis
23.02.2017
07:44:24
Сорри за оффтоп, но с праздником, мужчики :) Крепких кластеров и устойчивых сетей)

Artem
23.02.2017
07:47:28
спасибо!

Дмитрий
23.02.2017
09:22:12