
Sergey
19.10.2018
11:56:01

Ascandar
19.10.2018
11:56:01

Sherzod
19.10.2018
11:56:02

Alexey
19.10.2018
11:56:12
)

Google

Nikolai
19.10.2018
11:56:17
блин, плохо (

Alexey
19.10.2018
11:56:18

Ascandar
19.10.2018
11:56:31

Alexey
19.10.2018
11:56:42
там же rbac надо настраивать
и это все описано же. вроде
у меня по крайней мере не было проблем

Sherzod
19.10.2018
11:57:11
по докам пишут, что надо какаой-то конфиг /etc/kubernetes/admin.conf стравить вебморде, но что-то я его копировать не могу ( на моей машине нет куба. Всё настроил на отдельном сервере, рядом с Proxmox

Alexey
19.10.2018
11:57:15

Sherzod
19.10.2018
11:57:31


Huan
19.10.2018
11:58:05
Oct 19 13:54:54 kube-master1 kubelet[1533]: I1019 13:54:54.000727 1533 kuberuntime_manager.go:757] checking backoff for container "kube-controller-manager" in pod "kube-controller-manager-kube-master1.domain.com_kube-system(3687c17433749fed6789102dcc2ddd2c)"
Oct 19 13:54:54 kube-master1 kubelet[1533]: I1019 13:54:54.000906 1533 kuberuntime_manager.go:767] Back-off 1m20s restarting failed container=kube-controller-manager pod=kube-controller-manager-kube-master1.domain.com_kube-system(3687c17433749fed6789102dcc2ddd2c)
Oct 19 13:54:54 kube-master1 kubelet[1533]: E1019 13:54:54.000948 1533 pod_workers.go:186] Error syncing pod 3687c17433749fed6789102dcc2ddd2c ("kube-controller-manager-kube-master1.domain.com_kube-system(3687c17433749fed6789102dcc2ddd2c)"), skipping: failed to "StartContainer" for "kube-controller-manager" with CrashLoopBackOff: "Back-off 1m20s restarting failed container=kube-controller-manager pod=kube-controller-manager-kube-master1.domain.com_kube-system(3687c17433749fed6789102dcc2ddd2c)"
помогите запустить эту поду плиз


Ascandar
19.10.2018
11:58:20

Alexey
19.10.2018
11:58:57
ммм
короче
делай раз
kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/recommended/kubernetes-dashboard.yaml
делай два
apiVersion: v1
kind: ServiceAccount
metadata:
name: admin-user
namespace: kube-system
делай три
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
name: admin-user
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster-admin
subjects:
- kind: ServiceAccount
name: admin-user
namespace: kube-system

Sherzod
19.10.2018
11:59:24

Google

Alexey
19.10.2018
11:59:25

Alexey
19.10.2018
11:59:31
верно
kubectl -n kube-system get secret

Nikolai
19.10.2018
11:59:52
как решили?
присоединяюсь к вопросу - как теперь prometheus через helm завести?

Sherzod
19.10.2018
11:59:56

Nikolai
19.10.2018
12:00:11
им ишу вообще такой создавал кто-нибудь?
судя по всему
https://github.com/coreos/prometheus-operator/issues/2025

Alexey
19.10.2018
12:01:15
создастя сервис аккаунт и сбиндится с ролью
а потом уже надо секрет доставать с токеном

Vadim
19.10.2018
12:01:38

Sherzod
19.10.2018
12:01:46
а называть как? рандомно?

Alexey
19.10.2018
12:02:07
ну от имени файла - содержимое не зависит

Sherzod
19.10.2018
12:03:03

Alexey
19.10.2018
12:03:13
неа
вообще без разницы

Sherzod
19.10.2018
12:03:22
~ тогда

Andor
19.10.2018
12:03:25
язабан

Vadim
19.10.2018
12:03:36
интересно какой опыт у mail.ru в обновлениях, оно ж только недавно вышло в паблик

Let Eat
19.10.2018
12:03:49

Google

Vadim
19.10.2018
12:05:10
будет ли трансляция?

Dmitry
19.10.2018
12:05:54
да, будет

Vadim
19.10.2018
12:06:17
круть, спасибо

Let Eat
19.10.2018
12:06:45

Dmitry
19.10.2018
12:08:24
На youtube. Мы скинем ссылку на трансляцию в чат и на страницу регистрации в день события

Let Eat
19.10.2018
12:09:26
Я б на канал просто подписался )

Nikolai
19.10.2018
12:14:24
не apply же в конце-концов

Sherzod
19.10.2018
12:26:49
Всё, посоны, сделал. Спасибо! ?
Жаль, что не получилось всё таки в контейнере LXC всё это дело провернуть (

Let Eat
19.10.2018
12:31:33

Nikolai
19.10.2018
12:32:37
а как чистить потом

Ascandar
19.10.2018
12:33:04
helm purge name

Nikolai
19.10.2018
12:33:24
так оно ведь не через helm ставиться или я что-то не понял
> helm template | kubectl apply -f -

Let Eat
19.10.2018
12:35:17

Banschikov
19.10.2018
12:36:14
не apply же в конце-концов
Поверь, apply порой надежней? Хотя как советуют выше, если нужно генерировать темплейты из шаблона то helm-template рулит

Andor
19.10.2018
12:36:53

Nikolai
19.10.2018
12:38:48
ну к примеру, когда невозможно применить apply потому что он ругается что такой ресурс уже существует - помню когда-то такое славливал, может то что руки кучерявые

Banschikov
19.10.2018
12:40:52

Google

Banschikov
19.10.2018
12:45:07

Nikolai
19.10.2018
12:47:28
это когда хельм говорит что нет кандидата в релиз? при этом предлагает сделать -purge, удалить сервер и вообще забыть про кубер - да тоже славливал такой ?

Ascandar
19.10.2018
12:52:35
через хельм лучше крит не ставить, можно типа прометеуса и ингресса
очередной апргейд - может сломать(

Banschikov
19.10.2018
12:57:10

Yaros
19.10.2018
12:58:37
Кто-то работает с windows контейнерами?
Как синхронизируете версии у разработчиков и на продакшене? Сложности при апгрейдах есть? То есть прод апгрейднули и виндовые контейнеры из-за несовместимости отвалились.

Banschikov
19.10.2018
12:59:52

Yaros
19.10.2018
13:01:05
при том, что k8s кластер может быть на виндовой машине. Значит версия виндовых контейнеров должна быть совместимой с версией контейнеров у девелоперов.

Banschikov
19.10.2018
13:01:35

Yaros
19.10.2018
13:02:01
@f545_j_43g43u_jer3tfgu32fh3333 о, спасибо за линк!
а там мне не скажут, что мне сюда? ?

Banschikov
19.10.2018
13:03:17

Yaros
19.10.2018
13:05:47
@f545_j_43g43u_jer3tfgu32fh3333 нет, именно вопрос синхронизации версий для совместимости контейнеров. Так что уже там написал ?

Banschikov
19.10.2018
13:06:42

bebebe
19.10.2018
13:07:31
k8s надо только в резюме упоминать, в приличном обществе могут мягко говорят не понять.

Vadim
19.10.2018
13:12:52

Yaros
19.10.2018
13:32:41
@vrutkovs пока нет еще, но вот-вот будут и я уже сам словил несовместимость версий между дев машинами. Отсюда и вопрос - как фиксить?

Andrey
19.10.2018
13:58:14
Всем привет, подскажите пытаюсь поставить kubernetes-dashboard
kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/recommended/kubernetes-dashboard.yaml
после этого
kubectl get pods --all-namespaces -o wide | grep kubernetes-dashboard
kube-system kubernetes-dashboard-767dc7d4d-vq77t 0/1 ContainerCreating 0 6m <none> node3 <none>
а в логах это
kubectl logs --namespace=kube-system pods/kubernetes-dashboard-767dc7d4d-vq77t
error: You must be logged in to the server (the server has asked for the client to provide credentials ( pods/log kubernetes-dashboard-767dc7d4d-vq77t))
что-то не так с кластером?

Google

Alexey
19.10.2018
14:00:01
О, опять дашборд

Psy
19.10.2018
14:02:22
топчик

Huan
19.10.2018
14:04:24
подскажите как принудительно прибить неймспейс? выдает ошибку
kubectl delete ns ingress-nginx
Error from server (Conflict): Operation cannot be fulfilled on namespaces "ingress-nginx": The system is ensuring all content is removed from this namespace. Upon completion, this namespace will automatically be purged by the system.

Andrey
19.10.2018
14:04:49

M
19.10.2018
14:26:26


Anton
19.10.2018
14:27:04
сегодня на дурацкую проблему натолкнулся на v1.11
kubelet_node_status.go:391] Error updating node status, will retry: failed to patch status ... context deadline exceeded (Client.Timeout exceeded while awaiting headers)
kubelet_node_status.go:391] Error updating node status, will retry: error getting node "k8s-2": Get https://127.0.0.1:6443/api/v1/nodes/k8s-2?timeout=4s: context deadline exceeded
случилось на всех машинах в момент высокой нагрузки, но на одной из машин kubelet так и не смог добраться до апи
kubelet_node_status.go:391] Error updating node status, will retry: error getting node
kubelet_node_status.go:379] Unable to update node status: update node status exceeds retry count
в итоге node not ready и убийство подов на машине. бугуртнул с этого

M
19.10.2018
14:27:57

Huan
19.10.2018
14:28:01

M
19.10.2018
14:28:30

Huan
19.10.2018
14:30:38
ingress-nginx Terminating 60d

M
19.10.2018
14:31:06
ну вот и поэтому команда не работает жди когда удалится

Huan
19.10.2018
14:34:41
уже прошло 4 часа(
в неймспейсе ничего нет
так же создал тестовый нс и теперь его удалить не могу

M
19.10.2018
14:49:36

Andrey
19.10.2018
14:49:44
привет друзья! всех с наступающими выходными! пользуется кто нибудь eks? есть небольшой вопросец

Alexander
19.10.2018
14:50:52