
Let Eat
19.04.2017
08:12:48
у нас 1.6.1 и beta

M
19.04.2017
08:13:08
ок, попробую враппер
а ноды у вас ребутятся?

Let Eat
19.04.2017
08:13:51
https://github.com/kubernetes-incubator/kube-aws/blob/e6de3dc6e45f8083013f23e24fade18305567cf5/core/controlplane/config/templates/cloud-config-worker#L137-L209

Google

Let Eat
19.04.2017
08:14:14
вот наша пускалка, подпилите напильником по вкусу :)

M
19.04.2017
08:15:23
просто просто новый контейнер фланнел создается только после ребута
если gc ничего не перемещает в мусор у меня проблем тоже нет
хорошая пускалка спасибо за линк

Let Eat
19.04.2017
08:16:28
что-то не так если kubelet вообще заботит rkt контейнеры. все что он должен видеть - контейнеры в докере

M
19.04.2017
08:16:56
ну видимо бинарник видит и то и то
надо попробовать его в rkt и не дать ему монтировать var/lib/rkt
хотя в вашем скрипте он примонтирован
-volume var-lib-rkt,kind=host,source=/var/lib/rkt \
если есть тестовая нода попробуйте убить контейнер с фланнел и подождать/запустить rkt gc

Let Eat
19.04.2017
08:26:02

M
19.04.2017
08:26:51
смотреть лог)

Google

M
19.04.2017
08:27:21
если gc перенесет папку с убитым подом начнется активность кубелета
там просто политика gc не сразу переносить а через сколько то часов
может он просто отработает и не перенесет, по дефолту вроде через 12 часов он переносит в одну папку а еще через 12 удаляет

Let Eat
19.04.2017
08:29:01
тишина

M
19.04.2017
08:30:17
rkt list
что говорит?
https://coreos.com/rkt/docs/latest/subcommands/gc.html

Let Eat
19.04.2017
08:30:59
UUID APP IMAGE NAME STATE CREATED STARTED NETWORKS
00091d0e hyperkube quay.io/coreos/hyperkube:v1.6.1_coreos.0 running 1 day ago 1 day ago
8182c0c8 flannel quay.io/coreos/flannel:v0.7.0 running 2 minutes ago 2 minutes ago
list: 2 error(s) encountered when listing pods:
list: ----------------------------------------
list: Unable to read pod 4c1c0eb7-ff8a-4ed7-8b08-0028b44d07c3 manifest:
error reading pod manifest
list: ----------------------------------------
list: Unable to read pod 657337f6-705f-4b57-9ae8-79e265af2476 manifest:
error reading pod manifest
list: ----------------------------------------
list: misc:
list: rkt's appc version: 0.8.10
list:
похоже он их не может gc :) там был баг в рокете связаный со stage1 про это

M
19.04.2017
08:31:59
хм
у меня норм листает под рутом
rkt gc --grace-period=1m0s

Let Eat
19.04.2017
08:34:03
да делал с 0
rkt run --insecure-options=image docker://busybox --exec date; rkt gc --grace-period=0
копит ошибки в rkt list :)

M
19.04.2017
08:35:27
а что в journalctl -n40000|grep rkt
у меня там периодический gc

Let Eat
19.04.2017
08:36:11
дело не в gc
точнее в том, что оно не может выполнится
после каждого rkt run растет cat /proc/mounts |wc -l так как:
Garbage collecting pod "657337f6-705f-4b57-9ae8-79e265af2476"
gc: problem performing stage1 GC on "657337f6-705f-4b57-9ae8-79e265af2476": open /var/lib/rkt/pods/exited-garbage/657337f6-705f-4b57-9ae8-79e265af2476/stage1/manifest: no such file or directory
gc: unable to remove pod rootfs "657337f6-705f-4b57-9ae8-79e265af2476": remove /var/lib/rkt/pods/exited-garbage/657337f6-705f-4b57-9ae8-79e265af2476/stage1/rootfs: device or resource busy

Google

M
19.04.2017
08:39:18
забавно, у меня с гц все хорошо
а вот после не очень)

Let Eat
19.04.2017
08:39:34
вот нашел: https://github.com/rkt/rkt/issues/3465
вобщем, если перейдете на kubelet-wrapper у вас так же будет :))

M
19.04.2017
08:41:30
даже не знаю теперь)
я задизаблил гц пока

Let Eat
19.04.2017
08:49:27
даже не знаю теперь)
убрал https://github.com/kubernetes-incubator/kube-aws/blob/e6de3dc6e45f8083013f23e24fade18305567cf5/core/controlplane/config/templates/cloud-config-worker#L153-L156
gc заработал норм , кюблет не сломался

M
19.04.2017
08:53:54
спасибо) буду пробовать

Dmitry
19.04.2017
11:35:16
Ребят, есть успешные/неуспешные запуски https://github.com/coreos/torus для pv куба?

Lev
19.04.2017
11:38:56
а есть ли смысл? Development on Torus at CoreOS stopped as of Feb 2017.

Dmitry
19.04.2017
11:42:46
ну да.. значит все ж gluster

Paul
19.04.2017
12:47:24

Dmitry
19.04.2017
12:54:45
Это в курсе... А какие есть альтернативы? ceph?

Let Eat
19.04.2017
13:01:00
ceph сильно лучше, тоже не "сел и поехал" конечно

Paul
19.04.2017
13:35:15

Павел
19.04.2017
13:38:11
Riak S2
MooseFS
Lustre

Михаил
19.04.2017
13:51:27
хоспади

Zon
19.04.2017
14:09:27
хоспади
Я ждал, когда ты дочитаешь эту группу

Google

Михаил
19.04.2017
14:09:48

Paul
19.04.2017
14:17:36

Zon
19.04.2017
17:36:48
https://github.com/kubernetes/charts/pull/428#event-1048933890 пол года не прошло :)

Yegor
19.04.2017
18:14:57
Парни, что порекомендуете для изучения кубов?

Павел
19.04.2017
18:15:16
http://coub.com

M
19.04.2017
18:31:38

Admin
ERROR: S client not available

Paul
19.04.2017
18:31:59
он слегка устарел, но покрывает почти все, пусть и по мелочи

Roman
19.04.2017
21:56:28
dockercon смотрите?

Михаил
20.04.2017
06:02:29
Ссылку давай

Vitaliy
20.04.2017
09:21:01
вопрос: kube-proxy как конфигурится через configset?
например я хочу сделать свое значение на параметр conntrack-min

Let Eat
20.04.2017
09:22:07
это sysctl? вроде через annotationбыло что-то

Mikhail
21.04.2017
07:35:03
День добрый:)
А кто как ребалансирует нагрузку на нодах кластера?
Проблема в том, что сейчас на двух нодах из 5-ти большая нагрузка, притом что на остальных нагрузка меньше (вводились позже)
Тупо гасить на нагруженных нодах контейнеры, чтобы те переподнялись на вновьсозданных? Или есть какой то еще вариант?

Let Eat
21.04.2017
07:57:46
rescheduler addon

Andrey
21.04.2017
08:02:37
кстати, по этому поводу читал интересную статью на хабре: https://habrahabr.ru/company/flant/blog/326062/

Роман
21.04.2017
08:06:01
А кто-нибудь использует kubernetes на debian?

Mikhail
21.04.2017
08:13:39

Роман
21.04.2017
08:20:53
Есть:)
А то что-то не выходит у меня каменный цветок. Думал, может в системе дело. Пробую по интерактивному гайду развернуть что-нибудь типа francois/apache-hostname, но, почему-то не присваевается external-ip. Всё время находится в состоянии pending. Как понять, что я делаю не так?)

Mikhail
21.04.2017
08:25:54
А какая версия кубера ?
просто 1.6.0+ на дебиан я не осилил , сейчас стоит 1.5.1

Google

Роман
21.04.2017
08:31:19

Mikhail
21.04.2017
08:32:24
а чем 1.6.1 поднимал?
А что показывает kubectl top nodes ?

Роман
21.04.2017
08:41:45
Ну, то есть, я делаю kubeadm init, затем ставлю flannel, потом делаю join на соседней виртуалке. Везде (все поды) показывает, что всё запущено и работает.

Mikhail
21.04.2017
08:49:51
А, через кубеадмин.
Видимо в 1.6.1 починили наконец, а то там были косяки с настройкой в 1.6.0 =)
kubectl top nodes показывает:
Error from server (NotFound): the server could not find the requested resource (get services http:heapster:)
Вот это как то странно... а kubectl top ? или что-то подобное есть в —help? (возможно, команду поменяли в 1.6+ версии)

Maksim
21.04.2017
08:55:37
Он написал что не нашёл сервис heapster
он вообще есть ?

Роман
21.04.2017
08:57:48

Maksim
21.04.2017
08:57:57
да-)
хотя я не знаю что именно делает kubeadm
https://github.com/kubernetes/kubernetes/tree/master/cluster/addons/cluster-monitoring/influxdb
https://github.com/kubernetes/heapster

Mikhail
21.04.2017
09:01:10

Maksim
21.04.2017
09:02:58
я не уверен, что "всё". Насколько я могу судить по его документации он разворачивает кластер
heapster это уже addon, разворачивающийся внутри кластера, и получающий метрики с нод.
я сам пишу плей буки для ансибля) и ставлю всё из сырцов)
я был воспитан в дикой стае FreeBSD -)

Mikhail
21.04.2017
09:07:09
Вот и мне предстоит этот путь,ибо брать что-то готовое и напильником проходить, слепо тыкаясь - не очень хороший вариант, чтобы понять как оно работает:)
П.С. Когда кубадмин ставил на 1.5.1+ версии, там все автоматически подтянулось и все работало "из коробки", за исключением того,что дашборд не подцеплялся