
Artem
29.05.2017
12:55:31
может флапает
я такого не встречал ещн

Andrew
29.05.2017
12:59:00
еще после перехода на 1.6.4, все на том же стенде kubelet выжирает многовато проца и нода пеиодически виснет
возможно это связано с описанной первоначально проблемой

Google

Andrew
29.05.2017
12:59:24
повторяется в ovh и gcp

Artem
29.05.2017
13:00:08
переход с какой версии?

Andrew
29.05.2017
13:00:33
слово переход можно опустить, скажем в сравнении с версией
развернут на чистую ноду
запускаю все через hyperkube бинарник
на 1.5.4 такого не было

Artem
29.05.2017
13:02:12
проверь, ямлы и ключи. могли чего убрать добавить переделать

Andrew
29.05.2017
13:02:58
новая инфа подъехала, на 1.5.4 тоже повторялось
на 1.4 нет

Artem
29.05.2017
13:04:24
я бы начал с проверки самого стенда
dmesg
нет ли там чего подозрительного
мб диски отказали

Google

Andrew
29.05.2017
13:10:33
спасибо, буду дальше копаться)

Artem
29.05.2017
13:12:04
посмотри strace там что-нибудь может пролететь интересного
кидай дебаг весь в пастебин и сюда)

Andrew
29.05.2017
13:16:10
мне кажется, у меня в конффигурации запуска сервисов может быть что-то намудрено, там ничего сильно не менялось с версии куба 1.2~ или еще ниже, при том что там руками делалось другим человеком и никто толком не актуализировал ничего никогда)
типо автоматизированный the hard way 2х летней давности

Artem
29.05.2017
13:17:26
обычно пишут что депрекейтед

Andrew
29.05.2017
13:17:58
тут скорее lagacy

Artem
29.05.2017
13:18:07
но если скакнул через несколько версий, то не факт

Andrew
29.05.2017
13:25:29
не так понял тебя сначала, согласен

Evgeny
29.05.2017
13:28:18
Коллеги, приветствую!
Возникла дума, и никак не придумывается, как сделать следующее:
Вношу изменения в конфиг deployment/svc/ingress и k8s отстреливает старые сущности pods/svc/ing, и переподнимает последние с новым конфигом.
Пока пришел вот к таким решениям:
Можно сделать через изменение config-map, но он не перезапускает сервис с новым конфигом, тут хард рестарт.
Можно на каждое изменение сервиса городить новые config-map, и апплаить его на сервис.
(под сервисом понимается связка depl/svc/ingress)
Либо сделать через consul-templates, и дергать скрипт на изменение конфига в консуле.
В общем, если кто может подсказать, как красиво решить данную задачу, буду признателен.

Andrew
29.05.2017
13:42:38
можно изменять конфигмэп и какую-нибудь аннотацию в своем деплойменте, это спровоцирует rolling update или recreate, в зависимости от стратегии в спеке

Bro
29.05.2017
13:48:04
добрый вечер. юзаю докер в конетейнерах и docker-compese конфигурации. пробовал kubernetes локально ощущения двойственный, скажите сложно мигрировать уже контейнерезированный набор сервисов?

Artem
29.05.2017
14:12:40
ну как сложно. займёт время на планирование архитектуры и составление конфигов, плюс время на понимание того, как эта балалайка работает.
если просто поднять k8s и туда запихать все работающие уже контейнеры, будет работать тоже. но без планирования архитектуры придётся потом все переделывать.
надо обратить внимание на сеть, на всяческие statefull сервисы и посмотреть как они работают в Best practices k8s

Bro
29.05.2017
14:17:17
стэйтфул это БД всякие?

Artem
29.05.2017
14:17:35
как будет делаться апгрейд сеовисов тоже момент немаловажный.
да бд, например

Bro
29.05.2017
14:18:01
у меня щаз маунтится внутрь докер контейнера папки которые на EBS volume расположены. для баз данных.
я вот помню когда поднимал кластер потрогать на этом и встрял

Google

Artem
29.05.2017
14:19:05
есть куча best practices надо изучить) можно не все сразу перевозить, как мы например

Bro
29.05.2017
14:21:50
у докера сейчас сварм есть например.

Artem
29.05.2017
14:22:52
https://www.google.ru/amp/s/technologyconversations.com/2015/11/04/docker-clustering-tools-compared-kubernetes-vs-docker-swarm/amp/
мне кажется, что в длительной перспективе, kubernetes лучше

Fike
29.05.2017
14:27:38

Artem
29.05.2017
14:27:51
в целом статья хорошо все описывает

Fike
29.05.2017
14:28:25
там ровно так же придется кряхтеть над тем, что делать с данными, которые не могут в случае чего с хоста на хост перепрыгнуть

Artem
29.05.2017
14:29:47
there is no silver bullet
в перспективе развития kubernetes выглядит лучше остальных. его делает большая богатая корпорация. хотя, если посмотреть, как эта корпорация запускала Android pay в России, тут сомнения возникают бгг

Bro
29.05.2017
15:40:19
а как данные действительно там хранить в кластере кубернетс?
есть еще open shift origin и прочие
ну да вокруг куба самый хайп

Bro
29.05.2017
15:42:17
вообще докер классная штука )) но я тут с ребятами общаюсь иногда в жаббере со штатов, так они с удивлением такие ты докер юзаешь? зачем он нужен, больше проблем приносит.
ну я познал дзен когда помимо разработки еще девопсил инфраструктуру где все крутилось а там 3 БД (mongodb, influxdb, elasticsearch) + redis + rabbitmq + еще kibana/logstash. и вроде все просто но то просидишь пару часиков с какой-нибудь фигней, то юзеру права создать, то конфиг где-то прописать тут яву ставишь какой-то версии. потом напрягся все по контейнерам разделил стало намного проще.

Fike
29.05.2017
15:51:13

Artem
29.05.2017
15:59:43
openshift не только лишь все могут настроить. даже опенстак проще. в общем он для экстремалов
мне нравится Cloudfoundry, такой proxmox для людей

Maksim
29.05.2017
16:01:35
ЧТо там настраивать в Openshift?
с CF мороки куда больше

Artem
29.05.2017
16:17:17
если свой клауд поднимать, мы же про эту ситуацию?

Google

Magistr
29.05.2017
16:32:09
А про спиннакер слышали?
Spinnaker : Global Continuous Delivery
http://www.spinnaker.io/

Alex Milushev
29.05.2017
16:38:08
привет, а есть возможность автоматически выделять dns имя для loadbalancer'ов?

Artem
29.05.2017
16:43:54
спинакер это уже типа fabric8, клауд же она не развернет?

Magistr
29.05.2017
16:45:39
Ну в общем случае рядом

Let Eat
29.05.2017
17:17:48

Victor
29.05.2017
18:08:33
подскажите, на одной ноде какое хранилище под данные выбрать с возможностью скейлить на несколько нод в будущем? пока использую nfs

Let Eat
29.05.2017
18:10:10
NFS только кажется, что скейлится :)

Admin
ERROR: S client not available

Victor
29.05.2017
18:37:17
нфс скейлить и не планирую) это временно. сейчас встал вопрос перенос БД, хочу сразу по-человечески сделать
выбирал между ceph и gluster, но смущает, что это решения для N-нод, а ближайшее время всё на одной будет

Paul
29.05.2017
18:55:31

Victor
29.05.2017
18:57:49
ну и про Flocker тоже проявляю интерес

Sergey
29.05.2017
18:58:47

Victor
29.05.2017
19:01:27
flocker не сторадж.
да, это я статью прочёл и понял неверно. ну а в целом же под мой кейс он подойдет?

Sergey
29.05.2017
19:01:54

Victor
29.05.2017
19:03:30

Andrew
30.05.2017
09:22:31
всем привет, есть проблема, случайным образом ребутятся ноды
debian jesse kernel 3.16, k8s 1.6.4 and 1.5.4, docker 1.12.6, etcd 2.3.7

Google

Andrew
30.05.2017
09:23:25
dmesg на момент ребута https://pastebin.com/JryuJWix
в логах, ничего подозрительного

Paul
30.05.2017
09:52:04

Andrew
30.05.2017
09:52:39
повторяется на разных впсках, на разных провайдерах
aws, ovh, gcp

Artem
30.05.2017
09:53:18
это докер
dmesg | grep aufs

Paul
30.05.2017
09:53:44
известный баг?

Artem
30.05.2017
09:53:53
их полно

Paul
30.05.2017
09:54:18
нет, я имею ввиду именно этот. Понятно, что их полно, докер, по-моему, это какое-то определение бага просто.

Andrew
30.05.2017
09:54:30
dmesg | grep aufs
[ 235.216440] aufs au_opts_verify:1570:dockerd[955]: dirperm1 breaks the protection by the permission bits on the lower branch
куча такого вот

Paul
30.05.2017
09:55:04
Макс Филатов (Злые Марсиане) пинает докер за глюк оверлей2, там, например, tar роняет контейнер

Andrew
30.05.2017
09:55:57
так и что это докер, что с ним делать? версию правильную ставить или кернел под него?

Paul
30.05.2017
09:56:32

Artem
30.05.2017
09:56:39
https://github.com/kubernetes/kubernetes/issues/27885
вечная песня
попробуй ядро из bpo
3.19 какое нить для начала

Andrew
30.05.2017
09:58:39
архивация вроде отрабатывает