@kubernetes_ru

Страница 22 из 958
Maxim
26.08.2016
18:22:43
дейс я так и не осилил (пока?)

не понимаю, нахрена он нужен

Zon
26.08.2016
18:23:05
Он очень простой, особенно если с helmc

Ivan
26.08.2016
18:23:08
Google
Zon
26.08.2016
18:23:22
Чтоб курлом деплоить

Maxim
26.08.2016
18:23:36
я и в кубернетес могу курлом деплоить

Zon
26.08.2016
18:23:45
Без генерации манифестов

Maxim
26.08.2016
18:24:02
а откуда ворклоад возьмется?

Denis
26.08.2016
18:24:03
Он скорее для отдельных dev-сред

Некий кластерный Heroku

Zon
26.08.2016
18:25:58
В курле будет имадж или из деис пуш

Maxim
26.08.2016
18:26:33
ты про аналог $ kubectl run nginx --image=nginx --port=80

?

Alexander
26.08.2016
18:26:42
да, люблю Rkt, но пока я лишь в начале пути)

Maxim
26.08.2016
18:26:46
это тоже можно курлом

Zon
26.08.2016
18:28:55
Можно я пересказывать не буду? https://youtu.be/ma1UDssjiH4

Maxim
26.08.2016
18:29:20
спасибо, посмотрю перед сном

Google
Zon
26.08.2016
18:29:29
?

Denis
26.08.2016
18:29:42
Габриель крутой оратор, хорошо выступает :)

Но у меня Deis не завёлся весной, были какие-то проблемы в первой версии с ceph

фатальные)

Вторая версия вроде уже получше идёт

Maxim
26.08.2016
18:30:27
кстати про сеф

Zon
26.08.2016
18:30:42
Сейчас ceph там уже вроде нет

Maxim
26.08.2016
18:30:44
а никто не экспериментировал еще с torus?

https://github.com/coreos/torus

нука, фанат кореоси, твой выход :D

Denis
26.08.2016
18:36:06
)) не не

Вообщем оставляю на нодах и мастере только kubelet: /opt/bin/kubelet \ --address=0.0.0.0 \ --port=10250 \ --hostname-override=${COREOS_PRIVATE_IPV4} \ --api-servers=${MASTER_PRIVATE_IPV4}:8080 \ --allow-privileged=true \ --logtostderr=true \ --cadvisor-port=4194 \ --healthz-bind-address=0.0.0.0 \ --tls-cert-file=/etc/kubernetes/ssl/kubelet.pem \ --tls-private-key-file=/etc/kubernetes/ssl/kubelet-key.pem \ --cluster-dns=${DNS_PRIVATE_IPV4} \ --cluster-domain="kube.local" \ --healthz-port=10248 \ --config=/etc/kubernetes/manifests --kubeconfig=/etc/kubernetes/kube-config.yaml

Zon
26.08.2016
18:36:21
Мы пока в сторону свифт вольюмов идём

Maxim
26.08.2016
18:37:07
а свифт отдельно, или со всем опенстеком?

--cluster-domain="kube.local" - вот это я бы пока убрал

Denis
26.08.2016
18:38:10
рисковано?)

Maxim
26.08.2016
18:38:13
угу

Zon
26.08.2016
18:38:30
а свифт отдельно, или со всем опенстеком?
Как часть облачного провайдера

Maxim
26.08.2016
18:38:33
оно будет принудительно search добавлять в /etc/resolv.conf

в каждом контейнере

Google
Maxim
26.08.2016
18:38:58
и там иногда случаются неожиданности с кубе-днсом

Denis
26.08.2016
18:39:39
--cluster-domain="kube.local" - вот это я бы пока убрал
Вот здесь ребята советуют поставить прост: https://coreos.com/kubernetes/docs/latest/deploy-master.html#create-the-kubelet-unit

Maxim
26.08.2016
18:39:47
--address=0.0.0.0 и вот тут лучше внутренний интерфейс подставлять зачем тебе светить наружу кьюблетом?

Denis
26.08.2016
18:39:50
ещё знаешь, что заметил

Maxim
26.08.2016
18:40:45
Вот здесь ребята советуют поставить прост: https://coreos.com/kubernetes/docs/latest/deploy-master.html#create-the-kubelet-unit
ну потому что им как-раз нужен search, чтобы растяжки в межконтейнерных коммуникациях писать покороче

но оно реально нестабильно работает

Denis
26.08.2016
18:40:57
мануал и организация K8s-сетапа изменилась прилично за последние 4 месяца

Maxim
26.08.2016
18:41:23
тут ничего не скажу, я меньше времени им занимаюсь

Denis
26.08.2016
18:41:38
это хорошо) меньше каши

они активно меняют всё я смотрю

но становится лучше - это точно

Maxim
26.08.2016
18:45:36
--tls-cert-file=/etc/kubernetes/ssl/kubelet.pem \ --tls-private-key-file=/etc/kubernetes/ssl/kubelet-key.pem \ вот это выкини

оно в kubeconfig.yaml'е

нахрена дублировать одно и то же

Denis
26.08.2016
18:47:05
:) выкидываю

apiVersion: v1 kind: Config clusters: - cluster: certificate-authority: /etc/kubernetes/ssl/ca.pem server: https://10.83.8.197:8443 name: bots users: - name: kubelet user: client-certificate: /etc/kubernetes/ssl/node.pem client-key: /etc/kubernetes/ssl/node-key.pem contexts: - context: cluster: bots user: kubelet name: kubelet-context current-context: kubelet-context

197 - тут apiserver?

Google
Maxim
26.08.2016
18:49:12
ага

Denis
26.08.2016
18:49:17
а можно их два поднимать?

Maxim
26.08.2016
18:49:26
хехе

можно

Denis
26.08.2016
18:49:29
для fail-over

Maxim
26.08.2016
18:49:39
но кьюблет умеет только к одному ходить

Denis
26.08.2016
18:49:43
)))

Maxim
26.08.2016
18:49:47
обещали в 1.5 поправить

Denis
26.08.2016
18:50:10
это ж где-то к рождеству - не раньше

Maxim
26.08.2016
18:50:25
угу

Admin
ERROR: S client not available

Denis
26.08.2016
18:50:39
cluster: bots - а вот эта штука где-то потом сказывается?

Maxim
26.08.2016
18:50:49
а, там где у меня "bots" - пиши чего угодно это просто имя кластера

Denis
26.08.2016
18:50:49
или это просто для управления?

на DNS не влияет?

Maxim
26.08.2016
18:50:59
ненене

Denis
26.08.2016
18:51:05
гудгуд

Maxim
26.08.2016
18:51:14
просто изначально я кластер поднимал для ботов

слак, телеграм, фсбук, etc

поэтому он так и называется

Google
Maxim
26.08.2016
18:52:39
если ты заметил, кстати, kubeconfig.yaml практически целиком повторяет твой локальный ~/.kube/config

устроен он совершенно идентично

Denis
26.08.2016
18:52:58
да, я сейчас как раз об этом подумал

мысль возникла первая - нужен ли на сервере kubectl? :)

Maxim
26.08.2016
18:54:43
ну да, как бесплатный бонус сможешь делать так: $ kubectl --kubeconfig /etc/kubernetes/kubeconfig.yaml get ...

;)

на серверах прям

--api-servers=${MASTER_PRIVATE_IPV4}:8080 \ тоже можно выкидывать в пользу server: ... в kubeconfig.yaml

Denis
26.08.2016
19:00:21
:))

Maxim
26.08.2016
19:00:46
DRY - это прекрасный принцип

не вижу смысла ему не следовать

Denis
26.08.2016
19:01:07
абсолютно разделяю, cloud-init вычистил

оставил только kubelet

Maxim
26.08.2016
19:03:12
не забывай, что /etc/kubernetes/manifests/proxy.yaml должен быть на каждой ноде

иначе service interoperability поломается

Denis
26.08.2016
19:10:27
как и все манифесты?

Maxim
26.08.2016
19:11:44
нененене

нахрена тебе аписервер и шедулер на каждой ноде-то? :D

на каждой worker-ноде должны быть два компонента: кьюблет (чтобы с контейнер-рантаймом общаться) и прокси (чтобы iptables настраивать)

все остальное - только на мастере

ахахаха

бля

пидорасы

Страница 22 из 958