
yolkov
28.03.2017
12:39:04
попробуй удалить через --force —grace-perod=0
а у тебя же не видно их

Maksim
28.03.2017
12:41:33
Weave Net работате как привелигированный под
если они запрещены, то контроллер не будет их создавать

Google

Maksim
28.03.2017
13:12:33
Относительно скорости
Conclusions
Setup TCP UDP
Host 115MB/s 55.7MB/s
Weave without Fast Datapath, default MTU 86.1MB/s 43.9MB/s
Weave with Fast Datapath, default MTU 42.4MB/s 23.9MB/s
Weave without Fast Datapath, MTU=8950 83.9MB/s 64.9MB/s
Weave with Fast Datapath, MTU=8950 115MB/s 53.9MB/s
Flannel with backend=vxlan 114MB/s 51.2MB/s
http://itechet.blogspot.ru/2015/11/weave-vs-flannel-network-performance_25.html

Paul
28.03.2017
13:34:28

Maksim
28.03.2017
13:34:59
--allow-privileged=true в конфиге apiserver и kubelet

Paul
28.03.2017
13:42:57
а разрешить его только для того, чтобы создать обратно порушенный под (то есть на вермя) - анриал?

Maksim
28.03.2017
13:50:02
https://kubernetes.io/docs/admin/admission-controllers/
DenyEscalatingExec
This plug-in will deny exec and attach commands to pods that run with escalated privileges that allow host access. This includes pods that run as privileged, have access to the host IPC namespace, and have access to the host PID namespace.
If your cluster supports containers that run with escalated privileges, and you want to restrict the ability of end-users to exec commands in those containers, we strongly encourage enabling this plug-in

Paul
28.03.2017
13:52:44
спесибо, изучу

Maksim
28.03.2017
13:55:55
http://blog.kubernetes.io/2016/08/security-best-practices-kubernetes-deployment.html

Paul
28.03.2017
14:19:15
понятно, что ничего не понятно. Ответа, как мне создать (пересоздать) weave-pod я так и не нашел

Maksim
28.03.2017
14:26:16
ставишь разрешение на прилигированные поды
и контроллер должен их создать

Google

Maksim
28.03.2017
14:26:41
либо надо читать логи
но тут возникает классный вопрос, если контроллер манагер в поде, то видит ли он аписервер?/
учитывая что нет сети

yolkov
28.03.2017
14:27:44
удаляешь под, его пересоздаст демонсет
видит, он в поде в hostnetwork

Paul
28.03.2017
14:28:05
ничего он не видит. При удалении пода демонсет новый под не создает - контейнеров вообще не видно

Maksim
28.03.2017
14:28:05
они у него не создались да же

Paul
28.03.2017
14:28:14
удаление и пересоздание демонсета ничего не даст

yolkov
28.03.2017
14:28:35
нужно удалять под
видимо ты как то специфично поднял кластер
демонсет должен сразу поднимать контейнеры, и как минимум они будут в статусе пендинг
если ничего нет, смотри с сервера логи кубелета или аписервера

Paul
28.03.2017
14:30:43

yolkov
28.03.2017
14:31:54
аписервер, контролер и шедулер как подняты, работают?

Paul
28.03.2017
14:32:13
в смысле - как? как карго их поднимает, в виде докер-образов
нет подов вива - нет сети. Нет сети - ничего не работает

yolkov
28.03.2017
14:32:36
как статический под, как просто докеробраз, как под в кубе?
я не видел карго, не знаю как он поднимает
я подимал как стаический под https://kubernetes.io/docs/concepts/cluster-administration/static-pod/
для мастер компонент у них указывается hostnetwork: true

Google

yolkov
28.03.2017
14:34:37
соответсвенно у мастер компонент сеть всегда доступна
и не зависит от сетевой подситемы куба
далее поднимаешь демонсет с сетью

Paul
28.03.2017
14:36:20

yolkov
28.03.2017
14:36:30
kubectl get no
все в статусе реади?

Paul
28.03.2017
14:37:27
да. И демонсет присутствует. Но поды создавать не хочет, хоть стреляйся. Не могу понять, в чем магия и как заставить его работать. Поскольку кластер пустой - просто его перелью, но вопрос интересный

yolkov
28.03.2017
14:37:59
заходи на любую ноду и смотри docker ps -a, docker logs id, логи кубелета
смотри логи мастер компонент на мастер ноде

Nik
28.03.2017
14:49:04
Всем привет
Установил я куб
и все вроде бы хорошо
даже nginx запускается
НО kube-dns 3/4 Running
и висит в таком состоянии
что делать?
1 мастер + 2 ноды

Igor
28.03.2017
14:51:49
Смотреть логи :)

Nik
28.03.2017
14:54:09
Readiness probe failed: Get http://192.168.69.4:8081/readiness: dial tcp 192.168.69.4:8081: getsockopt: connection refused
???
в гуголе забанен(

Igor
28.03.2017
14:57:04
Сервис не готов принять траффик надо смотреть те же логи, почему не готов

yolkov
28.03.2017
14:59:21
3 ноды 4 днс
скорее всего hostnetwork и порт занят
хотя вроде там не хостсеть
какой чек у readiness?

Dmitry
28.03.2017
15:02:48
убедись, что pod network работает между нодами

yolkov
28.03.2017
15:07:49
и какой из 4 контейнеров не стартанул?

Nik
28.03.2017
15:31:33
Спасибо )
Завтра попробую

Google

Nik
28.03.2017
15:31:40
Узнать все

kay
28.03.2017
16:58:51
Есть кто на митапе сейчас?

yolkov
28.03.2017
17:10:40
каком?

Anatoly
28.03.2017
17:36:06

Svyatoslav
28.03.2017
18:45:21
Какой митап, где?

Anton
28.03.2017
20:13:39
Я был.
В Берлине )

Zon
28.03.2017
20:20:36
Я поленился, завтра наслушаюсь :)

Anatoly
28.03.2017
20:27:05

Anton
28.03.2017
20:31:53
Как ставить кубернетс в digital ocean на практике. Ну и всякие фичи куби смотрели в действии
Типа rolling updates
И смотрели как пинг идёт без перерывов нашего приложения при апдейте

Vasily
28.03.2017
20:54:38
Народ, кто как решает вопрос изоляции подов в неймспейсах? Чтобы поды одного неймспейса не ходили и даже не знали о родах из других неймспейсов.

yolkov
28.03.2017
20:56:07
нетворк полиси, но мы только начинаем

Vasily
28.03.2017
20:57:06

yolkov
28.03.2017
20:57:43
ну тогда другой кластер

Vasily
28.03.2017
20:58:33

yolkov
28.03.2017
20:59:13
общий кластер для разных клиентов?

Vasily
28.03.2017
20:59:32

yolkov
28.03.2017
21:00:07
можно попробовать кубеднс для каждого клиента свой запустить и правами попробовать разрулить какие неймспейсы видеть + нетворк полиси

Google

yolkov
28.03.2017
21:00:12
но не уверен что получится

Vasily
28.03.2017
21:00:44

Ihor
28.03.2017
22:04:54
Kubernetes 1.6 is live!

Ivan
28.03.2017
22:44:31
???

Andrey
29.03.2017
08:16:02
господа, у меня вопрос по ingress - че-то я запутался:
1) поставил nginx-ingress из https://github.com/kubernetes/charts/tree/master/stable/nginx-ingress и переписал путь на дефолтный GKE контроллер (чтобы свой не создавал деплоймент):
controller:
defaultBackendService: "kube-system/default-http-backend"
2) создал ingress с нужным мне сервисом:
$ kubectl get services
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
excited-gecko-nginx-ingress-controller 10.107.248.80 104.197.230.27 80:30162/TCP,443:32189/TCP 14m
$ kubectl get ing
NAME HOSTS ADDRESS PORTS AGE
dokuwiki wiki.internal.fulldive.com 35.184.151.232 80, 443 3m
вот сайт wiki.internal.fulldive.com по адресу 104.197.230.27 доступен, а по адресу 35.184.151.232 нет
нафига он мне еще под ингресс еще один балансировщик с внешним адресом забабахал? и как сделать чтобы он этого не делал?
"я не буду за это платить" (с) :)

Михаил
29.03.2017
09:08:32
@zon_orti требуем текстовую трансляцию по возможности

Zon
29.03.2017
09:16:19
Не успеваю так быстро)

Михаил
29.03.2017
09:16:44
а у них трансляшка будет?
надо было ехать самому, заодно бы в гости заскочил))

Zon
29.03.2017
09:17:32
На сайте смотри, было вроде

Михаил
29.03.2017
09:21:56

Zon
29.03.2017
09:51:09

Михаил
29.03.2017
10:09:06
не, ссылки не нашёл на трансляцию

Zon
29.03.2017
10:19:13
Тогда картинки в моём канале смотри :)