
Ivan
17.03.2017
13:51:33
minikube на данный момент стабильнее, но даёт только одну ноду и использует свою виртуалку

Ihor
17.03.2017
20:19:11
1.6.0 уже почти вот-вот https://github.com/kubernetes/kubernetes/releases/tag/v1.6.0-beta.4

Mikhail
17.03.2017
20:27:13
Поскорее бы:)

Google

Vladimir
17.03.2017
20:49:01
Я вчера beta3 взял, но AzureDisk на нём все равно медленно форматируется/подключается, хотя вроде должны были исправить

M
18.03.2017
07:12:23
кто-то поставил nginx ingress 0.9.0-beta.3?

Kirill
18.03.2017
10:00:58
Поставил
Работает

Dorian
18.03.2017
10:15:38
Кто-нить озадачивался скрещиванием ODL с Kubernetes?
Навеяно неплохой презентацией
https://www.slideshare.net/premsankar/kubernetes-integration-with-odl
Правда я бы выпилил оттуда OS

Artem
18.03.2017
10:29:46
можно вкратце, чем лучше калико?
если только сеть брать
или это вообще не про это?

Paul
18.03.2017
10:41:57

Dorian
18.03.2017
11:13:44
если только сеть брать
Не, калико круто! Только речь про то, чтобы отказаться от OS
Чтобы пускать контейнеры на BM

Andrey
18.03.2017
11:14:33
А как со скоростью на двойной виртуализации?

Google

Dorian
18.03.2017
11:15:17
Где двойная?

Andrey
18.03.2017
11:16:09
На вводе-выводе

Dorian
18.03.2017
11:16:10
Вот тут ODL нужен
https://kubernetes.io/docs/admin/ovs-networking/

M
18.03.2017
20:32:06
Работает
все рабоатает? продакшн? https://github.com/kubernetes/ingress/issues/451 не беспокоит?
all, как удалить podы в unknown status? образовались после пропадания одного из воркеров сильно надолго
кубер успел переподнять поды до его появления
помог ребут ноды на которой были unknown статусы
подскажите, у кого бареметалл и натроен мультимастер, у вас корректно происходит ребут одной ноды? у меня через раз при ребуте одной ноды кубер показывает что not ready две ноды, это как то можно разрулить? балансир аписерверов хапрокси

Dmitry
19.03.2017
08:03:45

M
19.03.2017
08:26:13

Andrey
20.03.2017
08:42:35
короче какая-то шняга с кластером на гугле: запросы через балансировщик стандартный идут через раз (одна из нод не отвечает)
самое интересное что при удалении ноды зараза эта переходит на другую ноду %)
что посоветуете сделать чтоб с минимальным даунтаймом хрень отдебажить и/или поправить?

Ihor
20.03.2017
09:00:44
это GKE?
или сам делал на GCE?

Andrey
20.03.2017
09:03:22
GKE
хочу попробовать текущие ноды в дрейн, создать пул с новыми, обновить кластер и грохнуть старые
хз поможет или нет, плюс опять же даунтайм что плохо
не, не помогло - че за хрень
если эту ноду кильнуть то другая красной становится
кто-нибудь сталкивался?

Google

Sergej
20.03.2017
11:26:38
а кто каую файловую систему использует под ОС k8. У нас недавно что-то подвисло на тестовом стенде и поды быстро расплодившись исчерпали inode.

Vasily
20.03.2017
11:36:49
Правда, у меня OpenShift.

Sergej
20.03.2017
11:38:20
Да у нас ext4 везде. Это первый случай. Когда все успокоили то занятость inode 25%

Vasily
20.03.2017
11:39:03

Ivan
20.03.2017
11:40:00
Или можно использовать xfs :)

Sergej
20.03.2017
11:40:11
Это шоурум. Там однонодовый кластер. Дальше Уже минимум 3 ноды. На проде будет три мастера.

Vasily
20.03.2017
11:41:55

Paul
20.03.2017
11:43:01

Sergej
20.03.2017
11:44:42

Vitaliy
20.03.2017
12:16:29
у докера overlay storage driver пожирает inode обычно

Sergej
20.03.2017
12:22:25
Как то исторически aufs ставится

Zon
20.03.2017
12:24:32
Ресурсов на всё хватает?

Andrey
20.03.2017
12:25:28

Ihor
20.03.2017
13:08:08

Paul
20.03.2017
13:08:46

Sergej
20.03.2017
13:30:25
Но не стоит так делать.
А почему? У меня как раз были проблемы с оверлей2 даже было время когда мастер kubeadm не хотел активироваться с этой фс.
Кстати в рекомендации встречал "we will continue to recommend users to use the default storage backend, which is Aufs as of now."

Artem
20.03.2017
16:19:12
aufs?
бгг

Google

Artem
20.03.2017
16:19:28
она жёстко глючит
особенно в убунту
не встречали когда ломаются permissions?
и ещё сотня багов
просто docker/issues
а вот этот баг просто сказка
https://github.com/docker/docker/issues/13940
я видел его в 3 ядрах из шести в убунтах
то есть то нет то опять опа
в ядрах lts

Sergej
20.03.2017
16:25:39
Да я вкурсе. У меня везде 16.04 и 4.4.0-66

Artem
20.03.2017
20:42:11
я для себя решил использовать btrfs результаты отличные

Vladimir
20.03.2017
21:08:23
А я вот в первый, и, наверно, последний раз, воспользовался CentOS в качестве ОС для Docker

Aleksandr
20.03.2017
21:09:49

Vladimir
20.03.2017
21:10:41
Так получилось, что нужно было развернуть один сервис, а под рукой была только виртуалка с CentOS. Развертывание нужно было для внутреннего использования, поэтому я решил просто поставить докер и в нем развернуть то, что нужно
И все было прекрасно на протяжении нескольких месяцев. Потом виртуалка стала подвисать, а сегодня контейнеры перестали запускаться
Оказалось, что в закончилось место на device mapper, который был в файле на loopback

Aleksandr
20.03.2017
21:13:21
Это потому-что ты использовал devicemapper и старый докер и ядро не более свежее, у нас ядро с elrepo было, потом стали почти ванильное + патч в одну строку

Vladimir
20.03.2017
21:13:21
И не просто закончилось, а к херам закончилось - все решения, которые я встретил сводились у тому, что нужно сделать rm -rf /var/lib/docker и начать сначала

Aleksandr
20.03.2017
21:14:01
С overlay2 таких проблем нетв

Google

Vladimir
20.03.2017
21:15:26
И я видел предупреждение о том, что device mapper на лупбеке не стоит использовать а проде (и да, я смотрел, что основная причина - это перформанс, мне это было некритично)

Aleksandr
20.03.2017
21:16:59

Vladimir
20.03.2017
21:17:58
Но вот чтобы поведение по умолчанию было "я работаю пока не сдохну без предупреждения" это что то
И да, я был не лучшего мнения о aufs в убунте

Ihor
21.03.2017
05:35:23

Artem
21.03.2017
05:51:24
хз. aufs не работает, layerfs не работает, layerfs2 ещё нет, devmapper не работает
в дебиане кстати более менее aufs в отличии от убунты)

Fike
21.03.2017
06:19:16

Artem
21.03.2017
06:21:38
ядро разное. собрано с разным конфигом
для примера можешь скачать 4 ядра лтс убунты и сделать zcat /boot/config.gz | grep aufs
или как там она называется. я в мирантисе кучу багов заводил что не работает dir perm
из-за того что в ядре пролюбили включить xattr
выглядит как permission denied при попытке записать в валидную директорию в многослойный докер
например в tomcat9
дебиан просто в сислог гадит. убунта колтрейс в ядро, сервер неадекватен