@kubernetes_ru

Страница 869 из 958
Google
Dmytro
07.10.2018
07:16:59
попробуй kubectl drain $NODE Шуделлер перепланирует поды с этой ноды на другие
Можно ещё сделать кордон ноде и удалить под через kubectl (но наверное сначала сделать failover чтобы мастером другая реплика стала?)

я из-за этого столкнулся с проблемой, что для вручную запущенного docker-compose на машине в кластере нельзя задать изоляцию сети: контейнеры легко ходят по сети кубера, игнорируя опции в compose.yml. К примеру это легко может дропнуть базу, так как домен postgres резолвится в кубер вместо локального postgres из компоуза.
Ух, так зачем же на ноде кубера ещё непонятно что через докер композ стартовать? Если так делаете то пропишите в докер композ файле явно создание новой overlay network и чтобы все контейнеры в этом файле её юзали

Banschikov
07.10.2018
07:22:15
Всем привет, есть кто использует версию k8s 1.10.6?

Есть подозрение что там есть баг с шедулингом на taint ноды.

Mikhail чердак
07.10.2018
07:40:40
Мне вебсокет нужен

Dmytro
07.10.2018
08:19:09
мне в helm не устраивает только что при удалении он не удаляет pv и pvc
Так он и не должен, а как делать реинсталл чарта если все данные будут грохаться вместе с pc если удалить чарт?

M
07.10.2018
08:23:06
Так он и не должен, а как делать реинсталл чарта если все данные будут грохаться вместе с pc если удалить чарт?
ну когда делаю purge как-то даже не знаю приходится ещё подчищать потом а то при перестановки ругается с о pvc такой уже есть

Dmytro
07.10.2018
08:24:11
У меня кстать сносил, поэтому новый storageClass с политикой Retain
Наверное имеется ввиду что чарт создавал storage class такой или по такое было в дефолтном storage class

Google
Dmytro
07.10.2018
09:38:29
А есть идеи как можно задетектить, что docker build ничего не сделал без танцев с вытягиванием digest?
А почему танцы? Сравнить хеш текущего образа и latest это один иф в баше. Наверное можно парсить вывод docker build и смотреть что последний слой был from cache но имхо это более хрупко и в случае гитлаб докер раннеров один фиг нужно спулить latest тег из реджистри чтобы заюзать —cache-from флаг у docker build команды

это те самые танцы. И если build сервер один, то лезть в registry тоже 5-10сек
Юзкейс какой-то то очень маленькой компании с одним билд сервером с огромным локальным диском?

Alexey
07.10.2018
09:48:11
Да

Dmytro
07.10.2018
09:48:19
Ну хранить локально на билд сервере latest образ и с ним сравнивать хеш тогда

Alexey
07.10.2018
09:48:56
Я так смысла и не пойму... не делать docker push лишний?

Dmytro
07.10.2018
09:49:15
не в latest только же, а какой-то master, по веткам. Иначе будут мешаться друг другу
Само собой, latest текущей ветки у меня с фоллбэком на latest мастер ветки

Я так смысла и не пойму... не делать docker push лишний?
Да, а смысл пушать новый тег если образ не поменялся? Особенно если тег не кусок коммит хеш а что-то инкрементальное

Враппер вокруг скриптов. Я нашел новое дно
Враппер на питоне вокруг бинаря на го (копс) генерящего терраформ, всё так. Я вот тоже не смог с этим жить и меняю компанию

Это от версии и от coredns никак не зависит, господин некропостер
Хреново, тут в чате месяца два назад меня убеждали что с coredns проблемы пропали. И да, сорри за некропостинг - больше месяца не читал чат

Alexey
07.10.2018
10:03:43
Да, а смысл пушать новый тег если образ не поменялся? Особенно если тег не кусок коммит хеш а что-то инкрементальное
Спасибо за совет, не додумался. CI ускорился на 30сек (13 docker push все же тормозят просто так). Пустой комит прогоняется через ci за минуту, буду ещё думать как ускорить.

Эдуард
07.10.2018
10:42:53
Товарищи, а как дебагать следующую ситуацию: - docker build на 18 stable - docker run на локали - приложение работает без сбоев - docker run на паре серверов тоже всё гуд - docker run для приложения на k8s master-е - приложение начинает трэйсбечить как бешенное, несвязанными ошибками. - kubectl apply -f pod.yaml - тоже самое. k8s катался kubespray-ем, calico. Приложение просто рестуха для генерации пакетов хельма: - flask - subprocess - helm

Vadim
07.10.2018
10:44:29
А почему оно на мастере ранится ?

Vasiliy
07.10.2018
10:44:54
на всякий случай - limits.conf и sysctl крутились ?

Эдуард
07.10.2018
10:45:23
А почему оно на мастере ранится ?
да разница, похоже суть в разнице версий

И весит оно для оперативы метров 20

Vasiliy
07.10.2018
10:46:02
Эдуард
07.10.2018
10:46:19
неа, debian

Google
Fike
07.10.2018
10:46:55
с какими ошибками имеешь дело-то? а то пока звучит как "не работает"

Vasiliy
07.10.2018
10:46:56
неа, debian
ну давай ошибок тогда

Эдуард
07.10.2018
10:47:30
Тут сурцы: https://github.com/egeneralov/helm-chart-generator-api

Dmytro
07.10.2018
10:47:33
Вот, кстати интересный вопрос - кто кубер в клауде гоняет - какой там экономический смысл ? за каждый балансировщик по 5 баксов платить ?) или в aws попроще условия ?
У меня обратный вопрос про baremetal, PV крутить самим, лоадбалансер тоже, автоскейлинга нет. В чем смысл вообще кубера тут?

Эдуард
07.10.2018
10:47:46
Fike
07.10.2018
10:48:05
Тут сурцы: https://github.com/egeneralov/helm-chart-generator-api
что за ошибки-тооооооооооооо

Эдуард
07.10.2018
10:48:18
что за ошибки-тооооооооооооо
Прямо сейчас - рвёт коннект

Сейчас соберу дебагнутую версию

Вытащу

gunicorn)

Vasiliy
07.10.2018
10:48:58
У меня обратный вопрос про baremetal, PV крутить самим, лоадбалансер тоже, автоскейлинга нет. В чем смысл вообще кубера тут?
не хочу своими руками впн между серваками поднимать, лоад балансинги и прочее. пускай кубер магию делает.

Vadim
07.10.2018
10:49:08
А дальше регрессии рулится

Ингрессом

DNS сname ами на один Айпи настроены

Dmytro
07.10.2018
10:51:12
Не
Так редирект на хттпс они только в ALB запилили насколько я помню, а в ELB такого нет и надо самом на нжинкс делать

Спасибо за совет, не додумался. CI ускорился на 30сек (13 docker push все же тормозят просто так). Пустой комит прогоняется через ci за минуту, буду ещё думать как ускорить.
Думаю что если посмотреть повнимательнее то ещё что-то можно в .dockerignore закинуть, например тесты (тесты можно запускать в отдельном параллельном джобе)

Vlad
07.10.2018
10:53:25
В kube-aws для этого сделан был просто systemd unit который при shutdown текущей ноды делает ей drain через kubectl
ну, принцип абсолютно тот же. только напрямую в GKE изменения в node делать нельзя, но можно делать кастомизацию через указание shutdown script

Dmytro
07.10.2018
10:56:56
Фух, дочитал :)

Google
Dmytro
07.10.2018
10:58:03
Народ, а кто будет на devoops в следующее воскресенье?

Vlad
07.10.2018
10:59:40
Вроде там тоже можно кастомный имейдж для хоста как и в амазоне?
думаю, что нет. это всё же сервис, который предоставляет GCP. я бы на их месте такого бы не делал. да и зачем? я же покупаю сервис и хочу, чтобы он работал надёжно.

Dmytro
07.10.2018
11:01:08
Насколько я знаю можно, бывший коллега сейчас крутит на gke кластеры, сам не пробовал

Vasilyev
07.10.2018
11:03:05
Dmytro
07.10.2018
11:18:27
https://aws.amazon.com/blogs/opensource/aws-service-operator-kubernetes-available/ что думаете? Мы сделали подобное 2 года назад для стеков клаудформейше но там просто под слушал CRD и запускал aws cli cloudformation ...

До сих пор не уверен что это хорошая идея

Andor
07.10.2018
11:41:44
Dmytro
07.10.2018
11:43:49
В отпуске был, много свободного времени. Все срачи я прокрутил а там где обсуждения и ссылки местами даже полезно, засейвил даже штук 5 ссылок на почитать потом

Andor
07.10.2018
11:47:05
aws оператор это забавно

Vlad
07.10.2018
12:34:33
Народ, а кто будет на devoops в следующее воскресенье?
я хотел в спб сходить, но пересеклось с отпуском, поэтому увы. =)

Никита
07.10.2018
13:15:20
Banschikov
07.10.2018
13:36:55
Всем привет! Подскажите, что не так: --- apiVersion: v1 kind: ServiceAccount metadata: name: deployment-manager-serviceaccount namespace: develop --- kind: Role apiVersion: rbac.authorization.k8s.io/v1beta1 metadata: name: deployment-manager-role namespace: develop rules: - apiGroups: [""] resources: ["deployments", "replicasets", "pods", "statefulset"] verbs: ["get", "list", "watch", "create", "update", "patch", "delete"] --- kind: RoleBinding apiVersion: rbac.authorization.k8s.io/v1beta1 metadata: name: deployment-manager-rolebinding namespace: develop subjects: - kind: User name: deployment-manager namespace: develop roleRef: kind: Role name: deployment-manager-role apiGroup: rbac.authorization.k8s.io При kubectl get po -n develop выдает Error from server (Forbidden): pods is forbidden: User "system:serviceaccount:develop:deployment-manager-serviceaccount" cannot list pods in the namespace "develop"

Перед этим настроил kubectl: echo "${KUBE_CA_PEM}" > kube_ca.pem kubectl config set-cluster default-cluster —server=${KUBE_URL} —certificate-authority="$(pwd)/kube_ca.pem" kubectl config set-credentials deployment-manager-serviceaccount —token=${KUBE_TOKEN} kubectl config set-context default-system —cluster=default-cluster —user=deployment-manager-serviceaccount —namespace develop kubectl config use-context default-system

Дмитрий
07.10.2018
13:43:49
https://docs.bitnami.com/kubernetes/how-to/configure-rbac-in-your-kubernetes-cluster/#use-case-1-create-user-with-limited-namespace-access - по такому мануалу делал с ssl ca и всё работает

Mikhail чердак
07.10.2018
13:45:11
Если я правильно понимаю, то не надо давать юзерам ServiceAccount

Google
Alexey
07.10.2018
13:47:36
registry походу слои тащит в память, потому что с ограничением в 100мб слои по 400-500мб грузятся вечность. Хз где я скопировал deployment под registry, но 100мб мало, если таскает большие image.

Vasilyev
07.10.2018
13:53:04
Такова природа работы Линукса с дисками. Все через... кэш

Alexey
07.10.2018
13:53:54
эм, если процессу дают ограничение по памяти, то сюда входит файл кэш? O_O

Vasilyev
07.10.2018
13:54:26
Хмммм ...

А может протестировать??

Alexey
07.10.2018
13:55:19
Я думаю просто registry пытается сама затащить слой в память. Это ж не nginx

Vasilyev
07.10.2018
13:55:30
Не

Alexey
07.10.2018
13:55:42
Дисковый кэш не причем. У меня nginx с 100мб памяти нормально живут.

Vasilyev
07.10.2018
13:55:55
Приду домой - протестирую

И исходники регистри гляну. Но на 99% уверен - это файловый кэш

Alexey
07.10.2018
13:57:42
Ок, буду рад узнать, не думаю что у самого руки дойдут.

Дмитрий
07.10.2018
16:17:39
если на уровне cgroups - точно да
и там столько костылей зарыто, лучше этого не знать

Dmytro
07.10.2018
16:50:08
+
Супер, нужно пересечься ?

Mikhail чердак
07.10.2018
16:50:23
Volodimir
07.10.2018
20:43:58
Всем привет подскажите пожалуйста зачем городить одельный кластер ectd для kubernets если 3 мастра и так хранят все в etcd ?

Страница 869 из 958