@kubernetes_ru

Страница 834 из 958
Alexander N.
20.09.2018
06:44:54
ceph version 12.2.7 (94ce186ac93bb28c3c444bccfefb8a31eb0748e4) luminous (stable)

Roman
20.09.2018
06:45:37
ок щас попробую по этой мане, однако до сих пор не могу удалить клайм))

mio
20.09.2018
06:46:15
@Hellfosa а какая версия rbd/ceph в контейнере с kube-manager?

Google
Артем
20.09.2018
06:46:26
ок щас попробую по этой мане, однако до сих пор не могу удалить клайм))
расскажешь, я пробовал у меня сам деплоймент провиженера не стартанул

mio
20.09.2018
06:46:31
и какая версия ядра?

Артем
20.09.2018
06:47:29
latest провиженера заточен под релиз ceph мимик

Владимир
20.09.2018
06:47:53
https://habr.com/post/348688/ Опираясь на эту статью собирал свой. С правками под конкретную ситуацию)

Alexander N.
20.09.2018
06:48:35
@Hellfosa а какая версия rbd/ceph в контейнере с kube-manager?
rbd --version ceph version 13.2.1 (5533ecdc0fda920179d7ad84e0aa65a127b20d77) mimic (stable)

не очень хорошо конечно так использовать

но тем не менее работает стабильно

mio
20.09.2018
06:48:58
чем поднимали кластер k8s?

Alexander N.
20.09.2018
06:49:20
но это контейней не с kube-managet

а именно контейнер с rbd-provisioner

Владимир
20.09.2018
06:49:38
kubeadm

mio
20.09.2018
06:49:41
ааа, ну понятно)

у вас external provisioner

Google
Alexander N.
20.09.2018
06:50:12
ага, подменять kube-manager мне показалось плохой затеей

Владимир
20.09.2018
06:50:48
Тоже самое, что есть, только с доустановленным пакетом RBD.

Alexander N.
20.09.2018
06:51:08
а чем ставили ceph?
а он из коробки идет в proxmox

Roman
20.09.2018
06:51:31
февральская мана а команды уже устаревшие, как жить в этом мире а

Alexander N.
20.09.2018
06:53:12
mio
20.09.2018
06:53:48
кстати, кто-нибудь в проде использует провижинер для digitalocean block storage?

Alexander N.
20.09.2018
06:56:14
хз, прост оне знаю.
зато удобно получается, 1 пул под виртуалки, 1 пул под PV в кубере. И не надо городить ничего

Таки непонятно, как отучить traefik от попыток получить LE-сертификат для kubernetes.default.svc.cluster.local

Andre
20.09.2018
08:59:20
чуваки, решил подключить уже существующий кластер куба на GKE к гитлабу, нужен API URL, где его можно взять?

APISERVER=$(kubectl config view --minify | grep server | cut -f 2- -d ":" | tr -d " ")

нашел вот это

bebebe
20.09.2018
09:11:03
APISERVER=$(kubectl config view --minify | grep server | cut -f 2- -d ":" | tr -d " ")
как там, в 2004? kubectl config view -o jsonpath="{.clusters[0].cluster.server}"

kvaps
20.09.2018
09:35:30
а кто-нибудь операторы юзает? Посоветуйте, для mysql все три годные? - или есть какие-нибудь предпочтения в пользу определенного?

Stas
20.09.2018
09:36:50
Михаил
20.09.2018
10:03:24
Напиши сам

Maksym
20.09.2018
10:06:13
Кто нить реализовывал логирование в kubernetes используя docker-drivers ? Минутя fluend / filebeat? Есть какие то камни?

Artem
20.09.2018
10:11:27
Pavel
20.09.2018
10:14:29
Кто нить реализовывал логирование в kubernetes используя docker-drivers ? Минутя fluend / filebeat? Есть какие то камни?
В основном камни в том, что лог-драйверы далеко не всегда стабильны ?

Google
Pavel
20.09.2018
10:16:09
На fluentd стабильнее получается?
Не могу комментировать, не пробовал fluentd под нагрузкой.

Artem
20.09.2018
10:21:12
У меня стабильно, без утечек памяти и сжирания проца заработал только filebeat

Banschikov
20.09.2018
10:21:25
Всем привет! Подсажте, кубелет на воркерах чистить переодически docker имейджи?

Oleg
20.09.2018
10:33:13
https://kubernetes.io/docs/concepts/cluster-administration/kubelet-garbage-collection/

Подскажите, можно ли настроить запуск пода/деплоймента только если другой под/сервис успешно поднялся и готов отдавать данные?

или придется это проверять внешними костылями?

Maksym
20.09.2018
10:36:29
Подскажите, можно ли настроить запуск пода/деплоймента только если другой под/сервис успешно поднялся и готов отдавать данные?
Недавно поднимался - вопрос. На сколько я помню - сейчас такого нет. Только внешними костылями...

Alexey
20.09.2018
10:38:55
или придется это проверять внешними костылями?
Зачем костылями. Просто пусть падает. Как будет доступна зависимость, поднимется.

Oleg
20.09.2018
10:50:40
Зачем костылями. Просто пусть падает. Как будет доступна зависимость, поднимется.
так перезапус упавшего каждый раз множится на 2. пока зависимости поднимутся (в моём случае это мускуль, монга, редис) сервисы долговато будут раскуриваться.

Andre
20.09.2018
10:59:26
как там, в 2004? kubectl config view -o jsonpath="{.clusters[0].cluster.server}"
спасибо, тот же результат. но почему 2004? я же нашел эту команду на офф.сайте Kubernetes

https://kubernetes.io/docs/tasks/access-application-cluster/access-cluster/#without-kubectl-proxy

Кстати, это не помогло, гитлаб не может управлять этим кластером, выдает "Ошибка Kubernetes". Никаких объяснений больше. Видимо, нужно ещё какой-то ингресс донастроить, чтобы апи был доступен наружу.

Alexey
20.09.2018
11:12:25
так перезапус упавшего каждый раз множится на 2. пока зависимости поднимутся (в моём случае это мускуль, монга, редис) сервисы долговато будут раскуриваться.
я в курсе. Можно делать так, что dev монга и mysql будут быстро стартовать. Если по каким-то причинам таймаут ушел в дикие числа, всегда есть kubectl delete, но до такого у меня редко доходит.

* собирать image с накатанной базой, вместо голого image + применение бекапа.

Даниил
20.09.2018
11:23:35
порекомендуйте пожалуйста, как лучше менеджить трафик и доступы к подам на авс? думал над связкой: nginx-ingress (elb+acm cert) + externaldns

+ внутри consul и rabbitmq

это ж можно поднять один балансировщик на все ноды и юзать его?

разворачиваю стек копсом 3 мастера+3 ноды

Google
Oleg
20.09.2018
11:30:17
* собирать image с накатанной базой, вместо голого image + применение бекапа.
База 5 гиг весит в среднем. проектов много. хранение денег стоит. Я сделал имэдж, который базу зазипованую с нексуса тянет. Объем меньше в 5 раз. По скорости разворачивания 2-3 минуты. Причем это не рестор базы, а сразу дата файлы мускуля.

Сделано для тнстовых сред динамических и время жизни предполагается небольшое

Sergey
20.09.2018
11:32:26
Oleg
20.09.2018
11:39:09
когда-то и кубер был в диковинку)

Ivan
20.09.2018
12:09:23
Товарищи кубоводы, сколько по вашему субъективно нужно времени, чтобы начать пользоваться кубом и более-менее решать проблемы, возникающие с ним? Условно я в GCE сижу.

Dmitry
20.09.2018
12:11:12
У меня недели две ушло на https://kubernetes.io/docs/concepts/ и потом начал приложеньку на него портировать.

Sergey
20.09.2018
12:11:46
плюсую, где то две недели на базис

neumeika
20.09.2018
12:12:54
а потом где-то с год - перевод сервисов/микро/монолита :)

Alexander N.
20.09.2018
12:39:55
на traefik у кого-нибудь host-regexp работает в кубере?

как ему регулярку для поддоменов засунуть?

из доступных аннотаций rule-type нету host-regexp

Oleg
20.09.2018
12:49:28
на traefik у кого-нибудь host-regexp работает в кубере?
https://github.com/containous/traefik/blob/master/provider/kubernetes/kubernetes.go в коде такого нет

на traefik у кого-нибудь host-regexp работает в кубере?
О еще есть func getRuleForHost(host string) string { if strings.Contains(host, "*") { return "HostRegexp:" + strings.Replace(host, "*", "{subdomain:[A-Za-z0-9-_]+}", 1) } return "Host:" + host } if len(r.Host) > 0 { if _, exists := templateObjects.Frontends[baseName].Routes[r.Host]; !exists { templateObjects.Frontends[baseName].Routes[r.Host] = types.Route{ Rule: getRuleForHost(r.Host), } } }

Alexander N.
20.09.2018
12:54:23
какой-то грязный хак

Oleg
20.09.2018
12:54:51
это с трафик репы код =)

Alexander N.
20.09.2018
12:55:42
и опять же это как я понимаю будет работать только для полного поддомена т.е. *.хост

а если мне надо *-блабла.хост

уже хрен

Tagir
20.09.2018
13:02:24
всем ку! Народ, а кто нить сталкивался в чарте официальном prometheus-operator с такой ошибкой: metadata.name: Invalid value: "glusterfs-dynamic-prometheus-mon-prometheus-db-prometheus-mon-prometheus-0": must be no more than 63 characters Понятно что можно не юзать kube-prometheus чарт и поднять всё руками, но таки любопытно, что за х. На github заявляют, что смержили фичу задать имя самому в values, но что-то и так не пашет.

Google
Tagir
20.09.2018
13:02:40
#helm

Oleg
20.09.2018
13:04:40
Может вроде этого попробовать apiVersion: extensions/v1beta1 kind: Ingress metadata: name: blabllab annotations: kubernetes.io/ingress.class: traefik spec: rules: - host: *-blabla.super.com

Михаил
20.09.2018
13:05:41
Как перестать ржать с кейса: мы взяли чарт на гитхабе и он не работает как надо?) почти ежедневно такое

Михаил
20.09.2018
13:06:37
J
20.09.2018
13:07:18
да ну ладно? в 15й раз?)
ну они ж разные репозы показывают!

Dmitry
20.09.2018
13:11:07
Привет всем! Больше года назад столкнулись с тем, что хочется рисовать в grafana статус deployment'ов, statefulset'ов и д.р. При чем хочется не просто текущий статус, а как вот оно было за последние 3 часа (время показа в grafana). И... наконец-то у нас добрались руки и мы сделали плагин: https://github.com/flant/grafana-statusmap . Звездочки крайне приветствуются. И еще немного подробностей на хабре https://habr.com/company/flant/blog/423851/, где плюсики тоже приветствуются. Спасибо!

Tagir
20.09.2018
13:12:30
Как перестать ржать с кейса: мы взяли чарт на гитхабе и он не работает как надо?) почти ежедневно такое
если это в ответ мне, то очень остроумно и подчеркивает вашу особенность, уникальность в области k8s)

что не так с вопросом и кто сказал, что юзаю как есть?

Страница 834 из 958