
bebebe
07.10.2018
06:56:32

Konstantin
07.10.2018
06:57:06

Dmytro
07.10.2018
07:03:10

Google

Dmytro
07.10.2018
07:16:59

Banschikov
07.10.2018
07:22:15
Всем привет, есть кто использует версию k8s 1.10.6?
Есть подозрение что там есть баг с шедулингом на taint ноды.

Dmytro
07.10.2018
07:28:43

Mikhail чердак
07.10.2018
07:40:40
Мне вебсокет нужен

Dmytro
07.10.2018
08:19:09

M
07.10.2018
08:23:06

Dmytro
07.10.2018
08:24:11

Google

Dmytro
07.10.2018
09:38:29

Alexey
07.10.2018
09:48:11
Да

Dmytro
07.10.2018
09:48:19
Ну хранить локально на билд сервере latest образ и с ним сравнивать хеш тогда

Alexey
07.10.2018
09:48:56
Я так смысла и не пойму... не делать docker push лишний?

Dmytro
07.10.2018
09:49:15

Эдуард
07.10.2018
10:02:07

Alexey
07.10.2018
10:03:43

Эдуард
07.10.2018
10:42:53
Товарищи, а как дебагать следующую ситуацию:
- docker build на 18 stable
- docker run на локали - приложение работает без сбоев
- docker run на паре серверов тоже всё гуд
- docker run для приложения на k8s master-е - приложение начинает трэйсбечить как бешенное, несвязанными ошибками.
- kubectl apply -f pod.yaml - тоже самое.
k8s катался kubespray-ем, calico.
Приложение просто рестуха для генерации пакетов хельма:
- flask
- subprocess
- helm

Vasiliy
07.10.2018
10:43:58

Vadim
07.10.2018
10:44:29
А почему оно на мастере ранится ?

Vasiliy
07.10.2018
10:44:54
на всякий случай - limits.conf и sysctl крутились ?

Эдуард
07.10.2018
10:45:23
И весит оно для оперативы метров 20

Vasiliy
07.10.2018
10:46:02

Эдуард
07.10.2018
10:46:19
неа, debian

Google

Fike
07.10.2018
10:46:55
с какими ошибками имеешь дело-то? а то пока звучит как "не работает"

Vasiliy
07.10.2018
10:46:56

Эдуард
07.10.2018
10:47:30
Тут сурцы:
https://github.com/egeneralov/helm-chart-generator-api

Dmytro
07.10.2018
10:47:33

Эдуард
07.10.2018
10:47:46

Fike
07.10.2018
10:48:05

Эдуард
07.10.2018
10:48:18
Сейчас соберу дебагнутую версию
Вытащу
gunicorn)

Vasiliy
07.10.2018
10:48:58

Vadim
07.10.2018
10:49:08
А дальше регрессии рулится
Ингрессом
DNS сname ами на один Айпи настроены

Dmytro
07.10.2018
10:51:12
Не
Так редирект на хттпс они только в ALB запилили насколько я помню, а в ELB такого нет и надо самом на нжинкс делать

Vlad
07.10.2018
10:53:25

Dmytro
07.10.2018
10:56:56
Фух, дочитал :)

Google

Dmytro
07.10.2018
10:58:03
Народ, а кто будет на devoops в следующее воскресенье?

Vlad
07.10.2018
10:59:40

Dmytro
07.10.2018
11:01:08
Насколько я знаю можно, бывший коллега сейчас крутит на gke кластеры, сам не пробовал

Vasilyev
07.10.2018
11:03:05

Dmytro
07.10.2018
11:18:27
https://aws.amazon.com/blogs/opensource/aws-service-operator-kubernetes-available/ что думаете? Мы сделали подобное 2 года назад для стеков клаудформейше но там просто под слушал CRD и запускал aws cli cloudformation ...
До сих пор не уверен что это хорошая идея

Mikhail чердак
07.10.2018
11:25:38

Andor
07.10.2018
11:41:44

Dmytro
07.10.2018
11:43:49
В отпуске был, много свободного времени. Все срачи я прокрутил а там где обсуждения и ссылки местами даже полезно, засейвил даже штук 5 ссылок на почитать потом

Andor
07.10.2018
11:47:05
aws оператор это забавно

Vlad
07.10.2018
12:34:33

Никита
07.10.2018
13:15:20


Banschikov
07.10.2018
13:36:55
Всем привет! Подскажите, что не так:
---
apiVersion: v1
kind: ServiceAccount
metadata:
name: deployment-manager-serviceaccount
namespace: develop
---
kind: Role
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: deployment-manager-role
namespace: develop
rules:
- apiGroups: [""]
resources: ["deployments", "replicasets", "pods", "statefulset"]
verbs: ["get", "list", "watch", "create", "update", "patch", "delete"]
---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: deployment-manager-rolebinding
namespace: develop
subjects:
- kind: User
name: deployment-manager
namespace: develop
roleRef:
kind: Role
name: deployment-manager-role
apiGroup: rbac.authorization.k8s.io
При kubectl get po -n develop выдает
Error from server (Forbidden): pods is forbidden: User "system:serviceaccount:develop:deployment-manager-serviceaccount" cannot list pods in the namespace "develop"
Перед этим настроил kubectl:
echo "${KUBE_CA_PEM}" > kube_ca.pem
kubectl config set-cluster default-cluster —server=${KUBE_URL} —certificate-authority="$(pwd)/kube_ca.pem"
kubectl config set-credentials deployment-manager-serviceaccount —token=${KUBE_TOKEN}
kubectl config set-context default-system —cluster=default-cluster —user=deployment-manager-serviceaccount —namespace develop
kubectl config use-context default-system


Mikhail чердак
07.10.2018
13:42:03
Всем привет! Подскажите, что не так:
---
apiVersion: v1
kind: ServiceAccount
metadata:
name: deployment-manager-serviceaccount
namespace: develop
---
kind: Role
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: deployment-manager-role
namespace: develop
rules:
- apiGroups: [""]
resources: ["deployments", "replicasets", "pods", "statefulset"]
verbs: ["get", "list", "watch", "create", "update", "patch", "delete"]
---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: deployment-manager-rolebinding
namespace: develop
subjects:
- kind: User
name: deployment-manager
namespace: develop
roleRef:
kind: Role
name: deployment-manager-role
apiGroup: rbac.authorization.k8s.io
При kubectl get po -n develop выдает
Error from server (Forbidden): pods is forbidden: User "system:serviceaccount:develop:deployment-manager-serviceaccount" cannot list pods in the namespace "develop"
Kind: User
Но это ж вроде не юзер
А ServiceAccount


Дмитрий
07.10.2018
13:43:49
https://docs.bitnami.com/kubernetes/how-to/configure-rbac-in-your-kubernetes-cluster/#use-case-1-create-user-with-limited-namespace-access - по такому мануалу делал с ssl ca и всё работает

Mikhail чердак
07.10.2018
13:45:11
Если я правильно понимаю, то не надо давать юзерам ServiceAccount

Google

Alexey
07.10.2018
13:47:36
registry походу слои тащит в память, потому что с ограничением в 100мб слои по 400-500мб грузятся вечность. Хз где я скопировал deployment под registry, но 100мб мало, если таскает большие image.

Vasilyev
07.10.2018
13:53:04
Такова природа работы Линукса с дисками. Все через... кэш

Alexey
07.10.2018
13:53:54
эм, если процессу дают ограничение по памяти, то сюда входит файл кэш? O_O

Vasilyev
07.10.2018
13:54:26
Хмммм ...
А может протестировать??

Alexey
07.10.2018
13:55:19
Я думаю просто registry пытается сама затащить слой в память. Это ж не nginx

Vasilyev
07.10.2018
13:55:30
Не

Alexey
07.10.2018
13:55:42
Дисковый кэш не причем. У меня nginx с 100мб памяти нормально живут.

Vasilyev
07.10.2018
13:55:55
Приду домой - протестирую
И исходники регистри гляну. Но на 99% уверен - это файловый кэш

Alexey
07.10.2018
13:57:42
Ок, буду рад узнать, не думаю что у самого руки дойдут.

Banschikov
07.10.2018
14:00:58

Fike
07.10.2018
15:13:49

Дмитрий
07.10.2018
16:17:39

Dmytro
07.10.2018
16:50:08
+
Супер, нужно пересечься ?

Mikhail чердак
07.10.2018
16:50:23

Volodimir
07.10.2018
20:43:58
Всем привет подскажите пожалуйста
зачем городить одельный кластер ectd для kubernets если 3 мастра и так хранят все в etcd
?