
Let Eat
05.09.2017
15:17:17
в 1.8 выпилят кажется

Пашкин
05.09.2017
15:19:48
Кто-нибудь юзает weave cloud? Впечатления плюсы минусы. Для деплоймента, например, мониторинга. Мне показалось он слишком много жрет ресурсов для мониторинга.

Vitaliy
05.09.2017
15:24:28
weavescope жрёт неприлично много. У нас стоит в небольших кластерах просто как игрушка:)

Andrey
05.09.2017
16:38:07

Google

Ynleynah
06.09.2017
02:54:22
Нашел кое что, вроде годнота, может кому полезно будет тоже
t.me/moneymafia — канал с различными схемами и мануалы для заработка на любой вкус и цвет, а также бесплатные сливы приватных материалы с закрытых форумов.

Роман
06.09.2017
07:49:46
Подскажите, я имею связку grafana+prometheus. Пытаюсь смотреть графики за вчерашний день, но их нет. Где настраивается время хранения и что нужно настраивать: графану или прометей?

Maksim
06.09.2017
07:57:14
прометей
по умолчанию там два часа
https://prometheus.io/docs/operating/storage/#settings-for-high-numbers-of-time-series

Anton
06.09.2017
08:23:08
разве там retention не 2 недели?

Роман
06.09.2017
08:27:27
У меня хранится 6 часов по умолчанию. Нашёл параметр storage.local.retention = 6h. Видимо это и есть оно. Вот, только он не понимает значение 3d. В часах что ли ставить? Или там какие-то другие допустимые значения?

No1
06.09.2017
09:29:02

Роман
06.09.2017
09:29:44

Ivan
06.09.2017
09:43:34


Maksim
06.09.2017
09:58:27
Для начала просто убей selinux
/etc/selinux/config

Google

Zloy Dobriy
06.09.2017
09:59:12
Просто плибей
Сененфорсе 0

Ivan
06.09.2017
10:03:53
а можно подробнее, я не в теме видимо и такие выражения типа "сененфорсе 0" не понимаю )))

Sergey
06.09.2017
10:05:09

Zloy Dobriy
06.09.2017
10:10:21

Ivan
06.09.2017
10:13:45
ок. ошибка в консоль валиться перестала.
но аписервер всё равно перезапускается (((
в общем, думаю проблема в самом аписервере.
поскольку даже когда он поднимается, в логах на всех нодах валится:
Failed to list *v1.Node: Get http://127.0.0.1:8080/api/v1/nodes?fieldSelector=metadata.name%
(на немастерах, естественно, вместо лупбэка - айпишник мастера)
т.е. открытый порт ничего не даёт - аписервер просто не работает...
очень странно. вроде всё дефолтное, всё по мануалу...
какой то странный мануал у короси... дефективный видимо ))) без бубна невалиден)))

Maksim
06.09.2017
10:26:33
ailed to list *v1.Node: Get http://127.0.0.1:8080/api/v1/nodes?fieldSelector=metadata.name%
WTF??
А всё)

Ivan
06.09.2017
10:28:22
ну это все ноды, включая мастер, ломятся на апи, чтобы себя зарегать

Maksim
06.09.2017
10:28:50
это да)
а что в логах ??
и как вообще api ты поднимаешь? в контейнере или так?

Ivan
06.09.2017
11:28:46
да, прям по мануалу
там kubelet.service поднимается и ему указывается pod-manifest-path=/etc/kubernetes/manifests
как обещают в мануале, оно само все ямлики по указанному пути читает и поднимает как бы в кубернете, но ещё без кубернета

Google

Ivan
06.09.2017
11:30:50
я этот замут не понимаю, но верю, ибо видел как оно таким образом поднималось
правда это год назад было, версии были другими...

Роман
06.09.2017
11:31:59
А вот интересно, кто-нибудь ставит кубер так, что аписервер, контроллер-менеджер и шедюлер как отдельные приложения? Не в контейнере. И вообще возможно ли это?
И нужно ли?)

Ivan
06.09.2017
11:32:37
а они есть в таком виде? )))

Роман
06.09.2017
11:32:49
Вот и мне интересно)

Ivan
06.09.2017
11:33:00
я не нашёл

Роман
06.09.2017
11:34:47
Вообще, исходники есть, можно как минимум собрать.

Ivan
06.09.2017
11:37:08
собственно:
We're going to use a unique feature of the kubelet to launch a Pod that runs the API server. Above we configured the kubelet to watch a local directory for pods to run with the --pod-manifest-path=/etc/kubernetes/manifests flag. All we need to do is place our Pod manifest in that location, and the kubelet will make sure it stays running, just as if the Pod was submitted via the API. The cool trick here is that we don't have an API running yet, but the Pod will function the exact same way, which simplifies troubleshooting later on.
особенно мне понравилось про устранение неполадок.
я прям реально оценил... когда оно падает и даже логов нет о причине падения

Алексей
06.09.2017
11:42:29

Роман
06.09.2017
11:43:03

vladget
06.09.2017
12:44:38
Привет! Чето дашборд не становиться на 1.7.5
https://pastebin.com/8P49yEBw
что это может быть?
курл все отдает
networking: flannel
не то что бы он сильно нужен, но как то не приятно

Роман
06.09.2017
12:59:01

vladget
06.09.2017
12:59:10
угу

Google

Роман
06.09.2017
13:00:18
Я так же мучился с этой же ошибкой. Потом поставил calico и всё заработало.
Только на 1.6+
Вот какая странная проблема: указываю деплойменту hostPath, но это не работает. По указанному пути кубер создаёт дерево папок, но в этих папках пусто. Захожу в под - там всё есть. Что это может быть?

vladget
06.09.2017
13:02:48
А кстати есть какой-то нормальный док с networking compare?

Роман
06.09.2017
13:05:14

Fike
06.09.2017
13:05:47
volume не нужен [x]

vladget
06.09.2017
13:11:21

Admin
ERROR: S client not available

Роман
06.09.2017
13:11:42

vladget
06.09.2017
13:12:45
эмм, наверно нет

Роман
06.09.2017
13:13:44
Он нужен. Плюс, если не через прокси (а например через ингресс контроллер), то нужно ещё ему clusterrole cluster-admin дать.

Fike
06.09.2017
13:13:45

vladget
06.09.2017
13:13:53
Нужно для него роль описать вначаре в rbac?

Fike
06.09.2017
13:13:59
ну то есть серьезно, volume в докерфайле вообще никогда не нужен

Роман
06.09.2017
13:14:12

vladget
06.09.2017
13:14:23
угу
щас

Роман
06.09.2017
13:15:30

vladget
06.09.2017
13:15:39
https://git.io/kube-dashboard - там есть:
—-
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
name: kubernetes-dashboard
labels:
k8s-app: kubernetes-dashboard
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster-admin
subjects:
- kind: ServiceAccount
name: kubernetes-dashboard
namespace: kube-system

Google

Роман
06.09.2017
13:16:08

Maksim
06.09.2017
13:16:52

Роман
06.09.2017
13:17:14
Сейчас всё работает, когда примонтировал полный путь.
Этого хватит.

vladget
06.09.2017
13:35:14
а мне не отвечают, потому что не могут помочь или потому что очень нубский вопрос? :)
все работает

Igor
06.09.2017
13:54:27
spec:
serviceAccountName: kubernetes-dashboard
Возможно не хватает этого

vladget
06.09.2017
13:55:50
для 1.6.7 хватает
я думаю это сырое 1.7.5

Igor
06.09.2017
13:56:15
для 1.7.X всё работает
если нет, логи подскажут, что не так

Сергей
06.09.2017
14:09:53
Благородные доны, подскажите плиз, кто-то external-dns дружил с route53?

vladget
06.09.2017
14:20:08
только через kops
работает из коробки

Сергей
06.09.2017
14:20:35
а отдельно?