@kubernetes_ru

Страница 141 из 958
Ivan
17.03.2017
13:51:33
я правильно понимаю, что по функционалу это некоторый гибрид minicube и kargo?
это скорее что-то среднее между minikube и local-up-cluster, но только многонодовое

minikube на данный момент стабильнее, но даёт только одну ноду и использует свою виртуалку

Ihor
17.03.2017
20:19:11
1.6.0 уже почти вот-вот https://github.com/kubernetes/kubernetes/releases/tag/v1.6.0-beta.4

Mikhail
17.03.2017
20:27:13
Поскорее бы:)

Google
Vladimir
17.03.2017
20:49:01
Я вчера beta3 взял, но AzureDisk на нём все равно медленно форматируется/подключается, хотя вроде должны были исправить

M
18.03.2017
07:12:23
кто-то поставил nginx ingress 0.9.0-beta.3?

Kirill
18.03.2017
10:00:58
Поставил

Работает

Dorian
18.03.2017
10:15:38
Кто-нить озадачивался скрещиванием ODL с Kubernetes?

Навеяно неплохой презентацией https://www.slideshare.net/premsankar/kubernetes-integration-with-odl

Правда я бы выпилил оттуда OS

Artem
18.03.2017
10:29:46
можно вкратце, чем лучше калико?

если только сеть брать

или это вообще не про это?

Paul
18.03.2017
10:41:57
можно вкратце, чем лучше калико?
ODL поддерживается в железе

Dorian
18.03.2017
11:13:44
если только сеть брать
Не, калико круто! Только речь про то, чтобы отказаться от OS Чтобы пускать контейнеры на BM

Andrey
18.03.2017
11:14:33
А как со скоростью на двойной виртуализации?

Google
Dorian
18.03.2017
11:15:17
Где двойная?

Andrey
18.03.2017
11:16:09
На вводе-выводе

Dorian
18.03.2017
11:16:10
Вот тут ODL нужен https://kubernetes.io/docs/admin/ovs-networking/

M
18.03.2017
20:32:06
Работает
все рабоатает? продакшн? https://github.com/kubernetes/ingress/issues/451 не беспокоит?

all, как удалить podы в unknown status? образовались после пропадания одного из воркеров сильно надолго

кубер успел переподнять поды до его появления

помог ребут ноды на которой были unknown статусы

подскажите, у кого бареметалл и натроен мультимастер, у вас корректно происходит ребут одной ноды? у меня через раз при ребуте одной ноды кубер показывает что not ready две ноды, это как то можно разрулить? балансир аписерверов хапрокси

M
19.03.2017
08:26:13
Andrey
20.03.2017
08:42:35
короче какая-то шняга с кластером на гугле: запросы через балансировщик стандартный идут через раз (одна из нод не отвечает) самое интересное что при удалении ноды зараза эта переходит на другую ноду %) что посоветуете сделать чтоб с минимальным даунтаймом хрень отдебажить и/или поправить?

Ihor
20.03.2017
09:00:44
это GKE?

или сам делал на GCE?

Andrey
20.03.2017
09:03:22
GKE

хочу попробовать текущие ноды в дрейн, создать пул с новыми, обновить кластер и грохнуть старые

хз поможет или нет, плюс опять же даунтайм что плохо

не, не помогло - че за хрень



если эту ноду кильнуть то другая красной становится

кто-нибудь сталкивался?

Google
Sergej
20.03.2017
11:26:38
а кто каую файловую систему использует под ОС k8. У нас недавно что-то подвисло на тестовом стенде и поды быстро расплодившись исчерпали inode.

Sergej
20.03.2017
11:38:20
Да у нас ext4 везде. Это первый случай. Когда все успокоили то занятость inode 25%

Ivan
20.03.2017
11:40:00
Или можно использовать xfs :)

Sergej
20.03.2017
11:40:11
Это шоурум. Там однонодовый кластер. Дальше Уже минимум 3 ноды. На проде будет три мастера.

Paul
20.03.2017
11:43:01
Vitaliy
20.03.2017
12:16:29
у докера overlay storage driver пожирает inode обычно

Sergej
20.03.2017
12:22:25
Как то исторически aufs ставится

Zon
20.03.2017
12:24:32
Ресурсов на всё хватает?

Andrey
20.03.2017
12:25:28
Ресурсов на всё хватает?
угу, 3% cpu занято и 20% памяти

Ihor
20.03.2017
13:08:08
Как то исторически aufs ставится
Но не стоит так делать.

Paul
20.03.2017
13:08:46
Как то исторически aufs ставится
я использую overlayfs2, но она по сути - не FS, с голыми дисками работать не может

Sergej
20.03.2017
13:30:25
Но не стоит так делать.
А почему? У меня как раз были проблемы с оверлей2 даже было время когда мастер kubeadm не хотел активироваться с этой фс.

Кстати в рекомендации встречал "we will continue to recommend users to use the default storage backend, which is Aufs as of now."

Artem
20.03.2017
16:19:12
aufs?

бгг

Google
Artem
20.03.2017
16:19:28
она жёстко глючит

особенно в убунту

не встречали когда ломаются permissions?

и ещё сотня багов

просто docker/issues

а вот этот баг просто сказка

https://github.com/docker/docker/issues/13940

я видел его в 3 ядрах из шести в убунтах

то есть то нет то опять опа

в ядрах lts

Sergej
20.03.2017
16:25:39
Да я вкурсе. У меня везде 16.04 и 4.4.0-66

Artem
20.03.2017
20:42:11
я для себя решил использовать btrfs результаты отличные

Vladimir
20.03.2017
21:08:23
А я вот в первый, и, наверно, последний раз, воспользовался CentOS в качестве ОС для Docker

Aleksandr
20.03.2017
21:09:49
А я вот в первый, и, наверно, последний раз, воспользовался CentOS в качестве ОС для Docker
В чем проблема? Более года в проде, именно centos 7.x и последний docker 1.13

Vladimir
20.03.2017
21:10:41
Так получилось, что нужно было развернуть один сервис, а под рукой была только виртуалка с CentOS. Развертывание нужно было для внутреннего использования, поэтому я решил просто поставить докер и в нем развернуть то, что нужно

И все было прекрасно на протяжении нескольких месяцев. Потом виртуалка стала подвисать, а сегодня контейнеры перестали запускаться

Оказалось, что в закончилось место на device mapper, который был в файле на loopback

Aleksandr
20.03.2017
21:13:21
Это потому-что ты использовал devicemapper и старый докер и ядро не более свежее, у нас ядро с elrepo было, потом стали почти ванильное + патч в одну строку

Vladimir
20.03.2017
21:13:21
И не просто закончилось, а к херам закончилось - все решения, которые я встретил сводились у тому, что нужно сделать rm -rf /var/lib/docker и начать сначала

Aleksandr
20.03.2017
21:14:01
С overlay2 таких проблем нетв

Google
Vladimir
20.03.2017
21:15:26
Это потому-что ты использовал devicemapper и старый докер и ядро не более свежее, у нас ядро с elrepo было, потом стали почти ванильное + патч в одну строку
Насколько я видел в баг трекер докера, только последней осенью они вылили *воркарунд*! который не дает полностью закончится месту (так, что еще можно реанимировать все это дело)

И я видел предупреждение о том, что device mapper на лупбеке не стоит использовать а проде (и да, я смотрел, что основная причина - это перформанс, мне это было некритично)

Vladimir
20.03.2017
21:17:58
Но вот чтобы поведение по умолчанию было "я работаю пока не сдохну без предупреждения" это что то

И да, я был не лучшего мнения о aufs в убунте

Ihor
21.03.2017
05:35:23
я для себя решил использовать btrfs результаты отличные
я его тоже юзал продолжительное время, но устал от постоянных глюков

Artem
21.03.2017
05:51:24
хз. aufs не работает, layerfs не работает, layerfs2 ещё нет, devmapper не работает

в дебиане кстати более менее aufs в отличии от убунты)

Fike
21.03.2017
06:19:16
Artem
21.03.2017
06:21:38
ядро разное. собрано с разным конфигом

для примера можешь скачать 4 ядра лтс убунты и сделать zcat /boot/config.gz | grep aufs

или как там она называется. я в мирантисе кучу багов заводил что не работает dir perm

из-за того что в ядре пролюбили включить xattr

выглядит как permission denied при попытке записать в валидную директорию в многослойный докер

например в tomcat9

дебиан просто в сислог гадит. убунта колтрейс в ядро, сервер неадекватен

Страница 141 из 958