@kubernetes_ru

Страница 924 из 958
Sergey
19.10.2018
11:56:01
Sherzod
19.10.2018
11:56:02
Это платиновый вопрос
знать бы список типов вопросов в вашем треде )

Alexey
19.10.2018
11:56:12
)

Google
Nikolai
19.10.2018
11:56:17
блин, плохо (

Alexey
19.10.2018
11:56:18
кстати вроде у кого-то подобная была проблема уже
Куб и даш по умолчанию не создает админского сервиса-юзера. Народ это фрустирует)

Ascandar
19.10.2018
11:56:31
Это платиновый вопрос
а что значит платиновый?

Alexey
19.10.2018
11:56:42
там же rbac надо настраивать

и это все описано же. вроде

у меня по крайней мере не было проблем

Sherzod
19.10.2018
11:57:11
по докам пишут, что надо какаой-то конфиг /etc/kubernetes/admin.conf стравить вебморде, но что-то я его копировать не могу ( на моей машине нет куба. Всё настроил на отдельном сервере, рядом с Proxmox

Alexey
19.10.2018
11:57:15
там же rbac надо настраивать
Надо, написано, но вопрос этот постоянный и неизбывный

Sherzod
19.10.2018
11:57:31
Huan
19.10.2018
11:58:05
Oct 19 13:54:54 kube-master1 kubelet[1533]: I1019 13:54:54.000727 1533 kuberuntime_manager.go:757] checking backoff for container "kube-controller-manager" in pod "kube-controller-manager-kube-master1.domain.com_kube-system(3687c17433749fed6789102dcc2ddd2c)" Oct 19 13:54:54 kube-master1 kubelet[1533]: I1019 13:54:54.000906 1533 kuberuntime_manager.go:767] Back-off 1m20s restarting failed container=kube-controller-manager pod=kube-controller-manager-kube-master1.domain.com_kube-system(3687c17433749fed6789102dcc2ddd2c) Oct 19 13:54:54 kube-master1 kubelet[1533]: E1019 13:54:54.000948 1533 pod_workers.go:186] Error syncing pod 3687c17433749fed6789102dcc2ddd2c ("kube-controller-manager-kube-master1.domain.com_kube-system(3687c17433749fed6789102dcc2ddd2c)"), skipping: failed to "StartContainer" for "kube-controller-manager" with CrashLoopBackOff: "Back-off 1m20s restarting failed container=kube-controller-manager pod=kube-controller-manager-kube-master1.domain.com_kube-system(3687c17433749fed6789102dcc2ddd2c)" помогите запустить эту поду плиз

Ascandar
19.10.2018
11:58:20
Alexey
19.10.2018
11:58:57
ммм
короче делай раз kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/recommended/kubernetes-dashboard.yaml делай два apiVersion: v1 kind: ServiceAccount metadata: name: admin-user namespace: kube-system делай три apiVersion: rbac.authorization.k8s.io/v1beta1 kind: ClusterRoleBinding metadata: name: admin-user roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: cluster-admin subjects: - kind: ServiceAccount name: admin-user namespace: kube-system

Google
Alexey
19.10.2018
11:59:31
верно

kubectl -n kube-system get secret

Nikolai
19.10.2018
11:59:52
как решили?
присоединяюсь к вопросу - как теперь prometheus через helm завести?

Sherzod
19.10.2018
11:59:56
kubectl -n kube-system get secret
это делал ) прав было мало

Nikolai
19.10.2018
12:00:11
им ишу вообще такой создавал кто-нибудь?

судя по всему https://github.com/coreos/prometheus-operator/issues/2025

Alexey
19.10.2018
12:01:15
это делал ) прав было мало
два и три это файлы. kuberctl create -f

создастя сервис аккаунт и сбиндится с ролью

а потом уже надо секрет доставать с токеном

Sherzod
19.10.2018
12:01:46
а называть как? рандомно?

Alexey
19.10.2018
12:02:07
ну от имени файла - содержимое не зависит

Sherzod
19.10.2018
12:03:03
ну от имени файла - содержимое не зависит
а куда желательно это сохранять? в /etc/kubernetes?

Alexey
19.10.2018
12:03:13
неа

вообще без разницы

Sherzod
19.10.2018
12:03:22
~ тогда

Andor
19.10.2018
12:03:25
язабан

Vadim
19.10.2018
12:03:36
интересно какой опыт у mail.ru в обновлениях, оно ж только недавно вышло в паблик

Google
Vadim
19.10.2018
12:05:10
будет ли трансляция?

Dmitry
19.10.2018
12:05:54
да, будет

Vadim
19.10.2018
12:06:17
круть, спасибо

Let Eat
19.10.2018
12:06:45
Dmitry
19.10.2018
12:08:24
На youtube. Мы скинем ссылку на трансляцию в чат и на страницу регистрации в день события

Let Eat
19.10.2018
12:09:26
Я б на канал просто подписался )

Sherzod
19.10.2018
12:26:49
Всё, посоны, сделал. Спасибо! ?

Жаль, что не получилось всё таки в контейнере LXC всё это дело провернуть (

Let Eat
19.10.2018
12:31:33
не apply же в конце-концов
helm template | kubectl apply -f -

Nikolai
19.10.2018
12:32:37
а как чистить потом

Ascandar
19.10.2018
12:33:04
helm purge name

Nikolai
19.10.2018
12:33:24
так оно ведь не через helm ставиться или я что-то не понял

> helm template | kubectl apply -f -

Let Eat
19.10.2018
12:35:17
Banschikov
19.10.2018
12:36:14
не apply же в конце-концов
Поверь, apply порой надежней? Хотя как советуют выше, если нужно генерировать темплейты из шаблона то helm-template рулит

Andor
19.10.2018
12:36:53
Nikolai
19.10.2018
12:38:48
ну к примеру, когда невозможно применить apply потому что он ругается что такой ресурс уже существует - помню когда-то такое славливал, может то что руки кучерявые

Google
Banschikov
19.10.2018
12:45:07
ну к примеру, когда невозможно применить apply потому что он ругается что такой ресурс уже существует - помню когда-то такое славливал, может то что руки кучерявые
В последнее время часто ловлю баг при обвновлении релиза, ловлю дичайший баг, который исправить можно лишь хирургическим путем. В случае с kubectl все прозрачно и ясно.

Nikolai
19.10.2018
12:47:28
это когда хельм говорит что нет кандидата в релиз? при этом предлагает сделать -purge, удалить сервер и вообще забыть про кубер - да тоже славливал такой ?

Ascandar
19.10.2018
12:52:35
через хельм лучше крит не ставить, можно типа прометеуса и ингресса

очередной апргейд - может сломать(

Banschikov
19.10.2018
12:57:10
это когда хельм говорит что нет кандидата в релиз? при этом предлагает сделать -purge, удалить сервер и вообще забыть про кубер - да тоже славливал такой ?
Еще похуже) Когда начинается обновление релиза Helm выдает: Error: UPGRADE FAILED: a released named dev-users is in use, cannot re-use a name that is still in use И статус релиза становится: PENDING_UPGRADE. Причем Helm создает configmap с версией релиза которая зафейлилась, и начинает и уходит в статус PENDING_UPGRADE, и на этом все) В итоге приходится править этот configmap руками и перезапускать стадию деплоя. После этого все норм

Yaros
19.10.2018
12:58:37
Кто-то работает с windows контейнерами?

Как синхронизируете версии у разработчиков и на продакшене? Сложности при апгрейдах есть? То есть прод апгрейднули и виндовые контейнеры из-за несовместимости отвалились.

Yaros
19.10.2018
13:01:05
при том, что k8s кластер может быть на виндовой машине. Значит версия виндовых контейнеров должна быть совместимой с версией контейнеров у девелоперов.

Yaros
19.10.2018
13:02:01
@f545_j_43g43u_jer3tfgu32fh3333 о, спасибо за линк!

а там мне не скажут, что мне сюда? ?

Banschikov
19.10.2018
13:03:17
а там мне не скажут, что мне сюда? ?
Тут больше вопрос про CI | CD. K8s тут не причем.

а там мне не скажут, что мне сюда? ?
Или интересует вопрос деплоя всего этого дела в k8s?

Yaros
19.10.2018
13:05:47
@f545_j_43g43u_jer3tfgu32fh3333 нет, именно вопрос синхронизации версий для совместимости контейнеров. Так что уже там написал ?

Banschikov
19.10.2018
13:06:42
bebebe
19.10.2018
13:07:31
k8s надо только в резюме упоминать, в приличном обществе могут мягко говорят не понять.

Vadim
19.10.2018
13:12:52
Кто-то работает с windows контейнерами?
у вас windows контейнере в куберенетесе? И как ощущения?

Yaros
19.10.2018
13:32:41
@vrutkovs пока нет еще, но вот-вот будут и я уже сам словил несовместимость версий между дев машинами. Отсюда и вопрос - как фиксить?

Andrey
19.10.2018
13:58:14
Всем привет, подскажите пытаюсь поставить kubernetes-dashboard kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/recommended/kubernetes-dashboard.yaml после этого kubectl get pods --all-namespaces -o wide | grep kubernetes-dashboard kube-system kubernetes-dashboard-767dc7d4d-vq77t 0/1 ContainerCreating 0 6m <none> node3 <none> а в логах это kubectl logs --namespace=kube-system pods/kubernetes-dashboard-767dc7d4d-vq77t error: You must be logged in to the server (the server has asked for the client to provide credentials ( pods/log kubernetes-dashboard-767dc7d4d-vq77t)) что-то не так с кластером?

Google
Alexey
19.10.2018
14:00:01
О, опять дашборд

Psy
19.10.2018
14:02:22
топчик

Huan
19.10.2018
14:04:24
подскажите как принудительно прибить неймспейс? выдает ошибку kubectl delete ns ingress-nginx Error from server (Conflict): Operation cannot be fulfilled on namespaces "ingress-nginx": The system is ensuring all content is removed from this namespace. Upon completion, this namespace will automatically be purged by the system.

Andrey
19.10.2018
14:04:49
О, опять дашборд
не опять а снова

Anton
19.10.2018
14:27:04
сегодня на дурацкую проблему натолкнулся на v1.11 kubelet_node_status.go:391] Error updating node status, will retry: failed to patch status ... context deadline exceeded (Client.Timeout exceeded while awaiting headers) kubelet_node_status.go:391] Error updating node status, will retry: error getting node "k8s-2": Get https://127.0.0.1:6443/api/v1/nodes/k8s-2?timeout=4s: context deadline exceeded случилось на всех машинах в момент высокой нагрузки, но на одной из машин kubelet так и не смог добраться до апи kubelet_node_status.go:391] Error updating node status, will retry: error getting node kubelet_node_status.go:379] Unable to update node status: update node status exceeds retry count в итоге node not ready и убийство подов на машине. бугуртнул с этого

Huan
19.10.2018
14:28:01
а кстати попробуй написать kubectl delete namespace ingress-nginx либо версия у тебя походу не та
пробовал. про версию чего ты имеешь ввиду? версия ингресса?

Huan
19.10.2018
14:30:38
ingress-nginx Terminating 60d

M
19.10.2018
14:31:06
ну вот и поэтому команда не работает жди когда удалится

Huan
19.10.2018
14:34:41
уже прошло 4 часа(

в неймспейсе ничего нет

так же создал тестовый нс и теперь его удалить не могу

M
19.10.2018
14:49:36
уже прошло 4 часа(
k delete ns ingress-nginx —now=true —force=true —ignore-not-found=true

Andrey
19.10.2018
14:49:44
привет друзья! всех с наступающими выходными! пользуется кто нибудь eks? есть небольшой вопросец

Страница 924 из 958