
Yaroslav
27.06.2018
06:30:30
У меня почти так и сделано только руками приготовил 1 ВМ котррую расклонировал

Sergey
27.06.2018
06:30:42
ноды могут косячить потому что у них либо своп либо правила не писаны в iptables и пр
проще создать одну тачку и ее реплицировать уже

Yaroslav
27.06.2018
06:31:07
Короче лучше приготовить полноценную ВМ и потом сделоать копий.

Google

Yaroslav
27.06.2018
06:31:16
Норм идея)

Sergey
27.06.2018
06:31:42
ну явно не 10 нод с нуля сетапить;)

Maxim
27.06.2018
06:32:52

Andrey
27.06.2018
06:37:51

Andrey
27.06.2018
06:39:30

Alexey
27.06.2018
06:41:08

Yaroslav
27.06.2018
06:43:55

Alexey
27.06.2018
06:45:32
Я раньше сидел на centos7, но после рандомных проблем с docker просто перешел на ubuntu 16.04 и все стало менее рандомно. По ощущениям разработчики docker только на ubuntu 16.04 смотрят.
Рандомне проблемы это "закончились семафоры в udev, нода больше не может запускать контейнеры и нужно вызывать dmsetup udevcomplete_all". Баг я ядром, которое использовал centos7 и тп.

Andor
27.06.2018
06:50:40

Sergey
27.06.2018
06:51:39

Andor
27.06.2018
06:52:20
Это если у тебя ансибл

bebebe
27.06.2018
06:54:43
https://sweetcode.io/a-first-look-at-the-helm-3-plan/

Google

Andor
27.06.2018
06:55:20

Alexey
27.06.2018
07:03:16
первый раз лучше руками настраивать, все сразу провернуть крайне сложно

Yaroslav
27.06.2018
07:04:24
Вот этим я и занимаюсь))))

Александр
27.06.2018
07:04:40

Quang
27.06.2018
07:05:11
HI.. anyone have document about running multi environment on same K8s cluster ?

Andrey
27.06.2018
07:19:17

Lena
27.06.2018
07:28:09
Ну если тут можно новичкам вопросы задавать, то может подскажите. Развернула на Ubuntu 16.04, мастер , три ноды, для сети -flant. Но при смене use context постоянно ошибка refused connection . Решаю установкой rbac , но можно это как то делать не в каждом контексте ? И второй вопрос с какого приложения лучше начать , чтобы посмотреть наглядно применение кубера ? Стандартные веб серверы уже попробовала.
Спасибо заранее .

Sergey
27.06.2018
07:28:53
https://microservices-demo.github.io

Lena
27.06.2018
07:30:37
Спасибо ) вроде его попробовала , но видимо ресурсов не хватило , так как все зависло и поды были просто в неизвестном состоянии. Но ещё раз попробую )
Там просто в примере для сети weave используется , а у меня flant и я засомневалась

Andrey
27.06.2018
07:35:57
Приятно, если у вас flant сетью занимается.
Но flannel, наверное.

Lena
27.06.2018
07:36:28
Ой сорри конечно flannel ))
Не реклама, просто опечатка )

Andrey
27.06.2018
07:44:03
Ну если тут можно новичкам вопросы задавать, то может подскажите. Развернула на Ubuntu 16.04, мастер , три ноды, для сети -flant. Но при смене use context постоянно ошибка refused connection . Решаю установкой rbac , но можно это как то делать не в каждом контексте ? И второй вопрос с какого приложения лучше начать , чтобы посмотреть наглядно применение кубера ? Стандартные веб серверы уже попробовала.
Задеплойте полный LEPP stack с правильной настрой игресса, 2 контейнерами в подах (nginx и uWSGI), где nginx будет раздавать статику, а динамику будет обрабатывать uWSGI,
Убедитесь, что всё оборудовано requests/limits, readiness/liveness probe. Для Postgres поработайте с PV, PVC, StorageClass. Каждый API объект в Kubernetes подробно изучайте в документации, со всеми полями, гуглите практическое применение, если непонятно что-то.
Вариантов-то дохрена, чем развлечься можно.

Andor
27.06.2018
07:44:16
а чо такое lepp?

Andrey
27.06.2018
07:45:10
Linux, nginx (Engine-X произносится), Postgres, Python

Google

Lena
27.06.2018
07:45:33
Спасибо )

Andrey
27.06.2018
07:45:59
Или php, или perl. Не суть важно, просто application server в данном контексте.

Yaroslav
27.06.2018
07:49:17
Статейку нашел хорошую. Чтоб не мучиться с подготовкой нод
https://habr.com/company/flant/blog/415381/
Поднял кластер мигом, сижу теперь и думаю - че с ним делать то можно ? ?

Gleb
27.06.2018
07:50:50

Alexey
27.06.2018
07:55:36

kvaps
27.06.2018
07:59:01
А romana не решает эту проблему?
Конкретно Romana не решает, у романы есть romana-vip который предоставляет отдельный балансировщик в L2, но для externalIP в сервисе SNAT все равно работет, это правило которое добавляет kubelet и его никак не отключить

Sergey
27.06.2018
08:03:04
Господа, а что у нас нынче есть из нетворк-плагинов, которые норм работают в AWS и поддерживают NetworkPolicy?
canal?

Andrey
27.06.2018
08:04:37
Calico.

kvaps
27.06.2018
08:04:59

Vasyl
27.06.2018
08:18:10
https://labs.play-with-k8s.com может кому пригодится

Sergey
27.06.2018
08:25:23
?

Nik
27.06.2018
10:01:24
Не получается собрать кубы через kubeadm.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10255/healthz' failed with error: Get http://localhost:10255/healthz: dial tcp 127.0.0.1:10255: getsockopt: connection refused.
не может достучаться до kubelet.
Делаю просто kubeadm init

Sergey
27.06.2018
10:01:50
своп\иптаблес

Nik
27.06.2018
10:02:25
своп выключен
sudo iptables -L -n
Chain INPUT (policy ACCEPT)
target prot opt source destination
Chain FORWARD (policy DROP)
target prot opt source destination
DOCKER-USER all -- 0.0.0.0/0 0.0.0.0/0
DOCKER-ISOLATION all -- 0.0.0.0/0 0.0.0.0/0
ACCEPT all -- 0.0.0.0/0 0.0.0.0/0 ctstate RELATED,ESTABLISHED
DOCKER all -- 0.0.0.0/0 0.0.0.0/0
ACCEPT all -- 0.0.0.0/0 0.0.0.0/0
ACCEPT all -- 0.0.0.0/0 0.0.0.0/0
Chain OUTPUT (policy ACCEPT)
target prot opt source destination
Chain DOCKER (1 references)
target prot opt source destination
Chain DOCKER-ISOLATION (1 references)
target prot opt source destination
RETURN all -- 0.0.0.0/0 0.0.0.0/0
Chain DOCKER-USER (1 references)
target prot opt source destination
RETURN all -- 0.0.0.0/0 0.0.0.0/0

Google

Andrey
27.06.2018
10:04:15
Как насчёт "посмотреть логи"?
journalctl -u kubelet -e

Nik
27.06.2018
10:07:18
там обрезки гошныл логов
failed to run Kubelet: failed to create kubelet: misconfiguration: kubelet cgroup driver: "systemd" is different from docker cgroup driver: "cgroupfs"
последнее

Andrey
27.06.2018
10:08:43
Какие параметры командной строки переданы?
systemctl status kubelet
cgroup driver неправильный стоит.

Nik
27.06.2018
10:13:22
Process: 28612 ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_SYSTEM_PODS_ARGS $KUBELET_NETWORK_ARGS $KUBELET_DNS_ARGS $KUBELET_AUTHZ_ARGS $KUBELET_CADVISOR_ARGS $KUBELET_CGROUP_ARGS $KUBELET_CERTIFICATE_ARGS $KUBELET_EXTRA_ARGS (code=exited, status=255)

Andrey
27.06.2018
10:14:20


Nik
27.06.2018
10:14:54
# /etc/systemd/system/kubelet.service
[Unit]
Description=kubelet: The Kubernetes Node Agent
Documentation=http://kubernetes.io/docs/
[Service]
ExecStart=/usr/bin/kubelet
Restart=always
StartLimitInterval=0
RestartSec=10
[Install]
WantedBy=multi-user.target
# /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
[Service]
Environment="KUBELET_KUBECONFIG_ARGS=--bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf"
Environment="KUBELET_SYSTEM_PODS_ARGS=--pod-manifest-path=/etc/kubernetes/manifests --allow-privileged=true"
Environment="KUBELET_NETWORK_ARGS=--network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni/bin"
Environment="KUBELET_DNS_ARGS=--cluster-dns=10.96.0.10 --cluster-domain=cluster.local"
Environment="KUBELET_AUTHZ_ARGS=--authorization-mode=Webhook --client-ca-file=/etc/kubernetes/pki/ca.crt"
Environment="KUBELET_CADVISOR_ARGS=--cadvisor-port=0"
Environment="KUBELET_CGROUP_ARGS=--cgroup-driver=systemd"
Environment="KUBELET_CERTIFICATE_ARGS=--rotate-certificates=true --cert-dir=/var/lib/kubelet/pki"
ExecStart=
ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_SYSTEM_PODS_ARGS $KUBELET_NETWORK_ARGS $KUBELET_DNS_ARGS $KUBELET_AUTHZ_ARGS $KUBELET_CADVISOR_ARGS $KUBELET_CGROUP_ARGS $KUBELET_CERTIFICATE_ARGS $KUBELET_EXTRA_ARGS


Banschikov
27.06.2018
10:15:13
Всем привет! Подскажите можно как то в k8s открыть определенный диапозон портов у пода в спеке? чет не могу найти инфу по этому вопросу

Lucky SB
27.06.2018
10:15:36
используй сервис

Andrey
27.06.2018
10:16:17


Nik
27.06.2018
10:16:53
взлетел инит
спасиб!

Andor
27.06.2018
10:20:01

Google

Andor
27.06.2018
10:20:05
надо overrides править

Andrey
27.06.2018
10:20:09
спасиб!
Не за что. Внимательно изучите, как все компоненты control plane взаимодействуют друг с другом. Когда ночью кластер упадёт, времени спрашивать и читать в интернете не будет.

Nik
27.06.2018
10:20:32

Andor
27.06.2018
10:20:46

Mikhail
27.06.2018
10:21:38
разве?
я тоже так всегда считал, есть другие мнения да?

Andrey
27.06.2018
10:22:14
Это override, но, наверное, лучше второй создать, в лексиграфическом порядке они накладываются.
There are two methods of overriding vendor settings in unit files: copying the unit file from /lib/systemd/system to /etc/systemd/system and modifying the chosen settings. Alternatively, one can create a directory named
unit.d/ within /etc/systemd/system and place a drop-in file name.conf there that only changes the specific settings one is interested in. Note that multiple such drop-in files are read if present, processed in lexicographic
order of their filename.

Tores
27.06.2018
10:22:15
Делал все по офф доке
перед джойном нодов надо установить любой плагин CNI, как только он поднимется (я юзаю Flannel) проерить что мастер стал ready, затем джойнить ноды.

Andrey
27.06.2018
10:22:21
man systemd.unit

Banschikov
27.06.2018
10:23:01
используй сервис
А можно плиз пример? У меня есть подозрение что k8s не поддерживает диапозоны портов

Yaroslav
27.06.2018
10:23:10

Andor
27.06.2018
10:24:04

Andrey
27.06.2018
10:25:25
@Andorka
Его можно спокойно менять.
1. Он является systemd override'ом;
2. Он находится в списке conffiles deb пакета, поэтому при апдейте у пользователя спросит, что с этим делать, а не просто перетрётся.
# cat /var/lib/dpkg/info/kubeadm.conffiles
/etc/systemd/system/kubelet.service.d/10-kubeadm.conf

Andor
27.06.2018
10:25:49
ок, спасибо

Andrey
27.06.2018
10:25:56

Andor
27.06.2018
10:26:09
ну в 7 центоси точно работало

Andrey
27.06.2018
10:26:26
Я понял, гляну, спасибо.

Banschikov
27.06.2018
10:28:27
https://github.com/kubernetes/kubernetes/issues/23864

Andrey
27.06.2018
10:31:30
А зачем port range нужен? Как в этот под внешние сервисы ходить планируют?

Banschikov
27.06.2018
10:37:15