@kubernetes_ru

Страница 126 из 958
Alex
19.02.2017
18:37:37
похоже да это его например роль

когда появляется новый эвент сделать балансировку

вообщем сейчас я просто делаю kubectl scale +1

чтобы вынудить процесс spred-а

Google
Alex
19.02.2017
18:40:24
а да еще важно указывать лимиты

если из нет у подов то kube пытается все контейнеры сложить на одну ноду

Denis
19.02.2017
20:12:34
https://docs.google.com/spreadsheets/d/1g9JU-67ncE4MHMeKnmslm-JO_aKeltv2kg_Dd6VFmKs/edit#gid=0

Просто чтобы быть в курсе "когда" и "что")

Andrew
20.02.2017
12:25:06
https://github.com/projectcalico/cni-plugin/releases/tag/v1.6.0

теперь можно выдавать подам ip адреса из разных пулов

yolkov
20.02.2017
12:28:27
а несколько можно?

>For now, these annotations will only support a single IP in each list, but will be formatted as lists for future-proofing since we know that CNI will support multiple IP addresses in the future. When the time comes then multiple IPs will be supported.

Andrew
20.02.2017
12:38:42
в доке явно не сказано, я сам не пробовал

ок

yolkov
20.02.2017
12:39:52
а как роллингапдейт будет проходить?

у нового пода будет тот же ИП, как и у старого?

Andrew
20.02.2017
12:44:17
скорее всего будет новый, т.к. создается новый под. надо пробовать

Google
Дмитрий
20.02.2017
14:00:34
Не подскажете что означает сообщение на одной из нод которое выдает в лог scheduler: lock is held by kube-node02 and has not yet expired?

Ivan
20.02.2017
17:21:28
scheduler работает на самом деле только один (который elected), остальные - ждут своей очереди на случай если текущий отвалится

пока ждут - "lock is held" - это норма

Zon
21.02.2017
18:04:53


Vladimir
21.02.2017
18:05:39
чур меня

Fike
21.02.2017
18:05:59
мне б столько времени

Dmitry
21.02.2017
18:09:20
ну собсна после этого можно и остановиться в развитии

это вершина

уроборос

Gleb
21.02.2017
18:09:38
Ехал docker через docker. И т.д.

Dmitry
21.02.2017
18:09:44
скайнет почти что

Zon
21.02.2017
18:23:50


Ivan
21.02.2017
19:01:25
мы тоже о таком варианте с virtlet подумываем. допустим, есть k8s кластер с поддержкой виртуалок через virtlet, а надо править сам k8s или какую-то к нему примочку. Соответственно, нужен тестовый кластер. В одних случаях kubeadm-dind-cluster / kubernetes-dind-cluster или local-cluster либо даже minikube (в зависимости от того, надо ли много нод и надо ли собирать k8s с исходников) но иногда нужно N нод, чтобы это были виртуалки и чтобы кластер стартовал не полчаса, как kube-up с vagrant - то почему нет

Zon
21.02.2017
19:40:27
Презентация была от giantswarm, и у них это прод, так как они продают селфхостед кубернетес

Denis
21.02.2017
19:41:23
Ну а почему нет? :) Вполне юзабельно

Zon
21.02.2017
19:44:26
Желающие посмотреть на презентацию вживую - приезжайте на kubecon в Берлин, через месяц

Мне очень понравилась идея использовать свои third-party resources. Как-то я их упустил раньше

Zon
21.02.2017
19:51:19
Есть стандартные ресурсы: деплоймент, сикрет и тд, а можно делать свои и они будут через kubectl работать. Например: PKI через это можно сделать, как я понял

Чтоб при создании пода vault ему личный сертификат сделал

Google
Zon
21.02.2017
19:59:27
поясни
https://kubernetes.io/docs/user-guide/thirdpartyresources/ базовая дока

Zon
21.02.2017
20:00:57
Есть проходка? :)
Увы, мы не спонсоры пока) но компанию пива выпить составлю :)

yolkov
21.02.2017
20:19:10
Келси описал свою схему работы с волтом https://github.com/kelseyhightower/vault-controller

Как использовать “третьи ресурсы” кореосовцы пишут неплохо https://coreos.com/blog/introducing-operators.html

Denis
21.02.2017
20:39:35
Да

https://coreos.com/tectonic/releases/ - Они так активно пилят, кто-нибудь вообще использует Tectonic?)

Ihor
21.02.2017
22:51:29
кто-то использует

нужно понимать что это продукт в первую очередь для энтерпрайзов (или тех, кто рядом), так что количество клиентов - не ключевое

Denis
21.02.2017
23:53:30
Но enterprise очень относительное понятие

Дмитрий
22.02.2017
11:06:52
Ivan
22.02.2017
11:07:07
да

Дмитрий
22.02.2017
11:16:58
да
Хотел бы задать еще один вопрос по поводу мастера который прописывается у scheduler'а? Что это за адрес? Я поднимаю VIP pacemaker'ом на одной из нод кластера и тем самым даю понять что мастер это apiserver. Я правильно делаю? Что-то мне говорит, что это в корне не верно!

yolkov
22.02.2017
11:19:05
аписервер можно любой использовать, они все одинаковые, как ты их забалнасишь, твое дело

Дмитрий
22.02.2017
11:19:42
аписервер можно любой использовать, они все одинаковые, как ты их забалнасишь, твое дело
А почему выдается сообщение "Resetting endpoints for master service "kubernetes" to &TypeMeta{Kind:,APIVersion:,}"?

эти собщения идут непрерывно в логах аписервера

yolkov
22.02.2017
11:22:19
внутри кластера они по сути раундробином выбираются посмотри kubectl -n default get ep kubernetes

ты похоже перестарался с писмайкером

сделай фиксированные ИП для всех аписерверов и один виртуальный который будет ХА для внешних клиентов

внутри куба этот вип не используй

Google
Дмитрий
22.02.2017
11:24:06
внутри кластера они по сути раундробином выбираются посмотри kubectl -n default get ep kubernetes
команда выдает мне endpoint ip адрес, у которого указан порт 6443

yolkov
22.02.2017
11:24:13
хотя для шедулера и контроллера можно указать

у меня 3 эндпоинта выдает

3 физич адреса аписерверов

Дмитрий
22.02.2017
11:25:17
у меня только один, данного сервера с которого делаю запрос (на котором выполняю команду)

Admin
ERROR: S client not available

Дмитрий
22.02.2017
11:25:37
странно

yolkov
22.02.2017
11:26:17
сколько у тебя мастер нод?

Дмитрий
22.02.2017
11:26:46
и кстати, телнетом подключаюсь, порт не доступен, нет такого сокета в системе

у меня функции мастер нод и вычислительных совмещены

yolkov
22.02.2017
11:28:07
чтото видимо не правильно настроил

Дмитрий
22.02.2017
11:29:48
я указал secure-port=0

чтото видимо не правильно настроил
вот и хотелось бы разобраться, изучил (наверное плохо изучал) на оффсайте, но что-то все-равно не так

yolkov
22.02.2017
11:36:16
надо смотреть с какими опциями запустил компоненты, так тяжело понять, зачем тебе вообще сейчас HA? обойдись без него пока

Дмитрий
22.02.2017
11:41:22
почему kubernetes в качестве endpoint'а использует HTTPS, я не думал пока его использовать. Или это обязательная часть настройки?

Antony
22.02.2017
20:38:01
Необязательная, API server стартует и на https и на http просто по дефолту http вешается на 127.0.0.1, переназначь его на 0.0.0.0 и будет работать, почитай флаги запуска сервисов

Дмитрий
23.02.2017
04:43:59
Необязательная, API server стартует и на https и на http просто по дефолту http вешается на 127.0.0.1, переназначь его на 0.0.0.0 и будет работать, почитай флаги запуска сервисов
1) сокеты apiserver слушаются на 0.0.0.0:8080 и 0.0.0.0:6443 2) компоненты kubernetes цепляются на apiserver на порт 8080 по http через параметр —master (не могу перевести на https, так как не вижу параметры в которых можно было бы использовать https у всё тех же самых компонент) 3) сами apiserver'а обращаются к самим себе на localhost на https порт 6443 (проверено, экспериментировал с сертификатами, в которых пришлось прописать alternaivemane = localhost, чтобы исчезли сообщения об ошибках при подключении к самим себе на localhost!!!!!!!!!) 4) в конце концов постоянно вылетает сообщение "Resetting endpoints for master service "kubernetes" to &TypeMeta{Kind:,APIVersion:,}", видимо это и есть конень моих проблем

Artem
23.02.2017
07:03:26
надо делать по хауту

там можно и без https

Google
Artem
23.02.2017
07:04:12
но лучше с ним конечно

за https отвечают флаги запуска сервисов их много

должен быть сертификат и мгенеренный secret

- --tls-cert-file=/etc/kubernetes/ssl/apiserver.pem - --tls-private-key-file=/etc/kubernetes/ssl/apiserver-key.pem - --client-ca-file=/etc/kubernetes/ssl/ca.pem - --service-account-key-file=/etc/kubernetes/ssl/apiserver-key.pem

вот такого рода флаги

если не нужен https api server надо запускать с "--insecure-bind-address=0.0.0.0"

а шедулер и контроллер с --master=http://127.0.0.1:8080

но это зависит от версии кубернетеса и как ты его запускал)

без https возможно будут проблемы с запуском дашборда всякого и dns. fabric8 тоже не запустится из коробки. вроде решаемо все, не помню уже точно

вот я прям щас поднял без https

1.3

secret не сгенерился

лучше ввести ещё 4 команды и серты все же сгенерить.

Denis
23.02.2017
07:44:24
Сорри за оффтоп, но с праздником, мужчики :) Крепких кластеров и устойчивых сетей)

Artem
23.02.2017
07:47:28
спасибо!

Страница 126 из 958