
Gleb
28.08.2018
15:18:34

Nikolai
28.08.2018
15:26:34
Приветствую!
В Kind: Pod при деплое в аннотации указывается политика безопасности restricted
annotations:
kubernetes.io/psp: restricted
Как указать чтобы pod использовал кастомную PodSecurityPolicy ?

Google

Nikolai
28.08.2018
15:29:32
Указываю соотвествующий serviceAccountName в Kind: Deployment, но ничего не меняется - не могу понять, Pod Security Policies разве не через RBAC привязывается?

Let Eat
28.08.2018
16:27:50
Это значит что под ничего такого не просит и ему подошла политика restricted

Nikolai
28.08.2018
16:29:49
Тем не менее инит контейнер ругается на то что политикой запрещён запуск команд от рута

Let Eat
28.08.2018
16:30:06
Вобщем, аннотация это не причина, а следствие :)

Nikolai
28.08.2018
16:31:42
Хм, вроде специально ничего такого не прописыал

Let Eat
28.08.2018
16:32:51
Можно посмотреть финальный ямл пода, там должно быть

Nikolai
28.08.2018
16:36:04
Ок, чуть позже скину
У меня через deployment - его конфиг показать ?

Gleb
28.08.2018
16:41:50

Twelfth
28.08.2018
17:30:18
@SinTeZoiD

Google

Yaros
28.08.2018
19:14:13
У кого-то есть опыт с ранчером? Поделитесь, пожалуйста, интересует и позитивный и негативный

Stas
28.08.2018
19:27:11
и у их ux дизайнера трисомия по 21 хромосомной паре

Alexey
28.08.2018
19:34:56

Gleb
28.08.2018
19:44:15

Stas
28.08.2018
19:47:01
так и сравнил, что если были странные вендорские свистоперделки в первом, которые не работали, то ничего не помешает наткнуться на них во втором, а если там ничего свистоперделачного нету (а там есть хотя бы тот же rke) то нахрен он вообще нужен?

kvaps
28.08.2018
19:51:26

Игорь
28.08.2018
19:52:46

kvaps
28.08.2018
19:52:53
но по хорошему это должен быть FQDN, типа foo.development.example.org а не foo.development

Игорь
28.08.2018
19:53:05
а когда поды в разных геолокациях, соединять их через vpn?
или кто делает поды в одной позиции?

Let Eat
28.08.2018
19:54:46
да
Ну тогда она уже умеет в куб ходить с правами ServiceAccount от которого запущена

kvaps
28.08.2018
19:55:27

Игорь
28.08.2018
19:55:47
это я к фразе свой dns
приватненький для подов, чтоб норм резолвилось, а весь мир об этом не знал

kvaps
28.08.2018
19:59:08
ну на мир вешается только ns запись
аля зона dev.example.org спросить у ns-dev.example.org с приватным айпишником

Игорь
28.08.2018
19:59:31
ну... эм... блин
ладно, я просто подумал, что тут есть люди которые заменили правку докер-резолвера на бинд например, но без впн

Nikolai
28.08.2018
20:01:18
Можно посмотреть финальный ямл пода, там должно быть
как я понял моя проблема в этом:
...
securityContext: 1
fsGroup: 1
supplementalGroup:
-1
...
поскольку в статусе ошибка
> container has runAsNonRoot and image has non-numeric user (vhost), cannot verify user is non-root

Let Eat
28.08.2018
20:04:24

Google

Алексей
28.08.2018
20:16:01
Коллеги, у меня странная ситуация
Поднят ingress-nginx даемонсетом через родной хелмовский чарт
но при его работе остаётся огромное кол-во соединений в TIME_WAIT
поднимаю рядом в докере обычный nginx, делают на него нагрузку - 19к рпс спокойно и TIME_WAIT вообще не создаются
а тут на каждое соединение - два TIME_WAIT
даже если иду просто на / , а он оттуда на default backend, оба на одной машине
поставил даже net.ipv4.tcp_tw_reuse = 1
толку 0
как заставить его убирать за собой?

kvaps
28.08.2018
20:32:45
А я тут fencing к кубу прикрутил, кому интересно присоединяйтесь потестить:
https://github.com/kvaps/kube-fencing

Let Eat
28.08.2018
20:51:08

kvaps
28.08.2018
20:53:45
У всех логика разная может быть заложена, у меня fencing-скрипт вычисляет hostame для ilo шасси и server_id например.

Let Eat
28.08.2018
20:56:03
Ну пусть скрипт и останется скриптом, почему он в отдельном поде?

kvaps
28.08.2018
20:56:43
А, идея была сделать fencing-agents полностью заменяемым компонентом
По аналогии с out of tree storage plugins, для fencing могут быть разные провайдеры
А контроллер остаётся контроллером

Fike
28.08.2018
21:53:47
Приходи в мою ложу вечером

Sergey
29.08.2018
03:03:47
@SinTeZoiD

bebebe
29.08.2018
04:10:23
На канале 1.6к подписоты, всего три поста лайфхаков и прочих прохладных историй.
Про k8s не пишут

Sergey
29.08.2018
04:28:08

Banschikov
29.08.2018
04:32:12
Всем привет! Впервые пытаюсь вывести графану через nginx-ingress.
Делаю вот так это дело:
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: grafana-ingress
namespace: kube-system
annotations:
kubernetes.io/tls-acme: "true"
kubernetes.io/ingress.class: "nginx"
spec:
tls:
- hosts:
- grafana.test.ru
secretName: router-go-tls
rules:
- host: grafana.test.ru
http:
paths:
- path: /
backend:
serviceName: monitoring-grafana
servicePort: 80
В итоге графана отдает 404 ошибку, так полный url запросы выглядит так:
https://grafana.test.ru/api/v1/namespaces/kube-system/services/monitoring-grafana/proxy/login
Графана получает этот путь и отдает 404. Может кто сталкивался с этой задачей, и может подсказать как правильно нужно сделать?

bebebe
29.08.2018
04:32:26
Чево
того, зашел на этот канал который рекламят

Sergey
29.08.2018
04:42:54

bebebe
29.08.2018
04:54:11

Banschikov
29.08.2018
05:01:55

Anton
29.08.2018
05:46:54

Alexey
29.08.2018
05:48:21
я не могу его поправить, могу только пересоздать, но кмк он уже уехал в историю и врядли кому-то уже может быть интересен ))
там и первый пункт с кубспреем тоже выглядит не совсем так как я хотел в итоге

Google

Anton
29.08.2018
05:55:11

Antony ??
29.08.2018
06:30:03

Михаил
29.08.2018
07:17:24
!спам

Anton
29.08.2018
07:19:06
а зачем старый опрос нужен?

Andor
29.08.2018
07:19:20
вот именно

Gleb
29.08.2018
07:19:27

Михаил
29.08.2018
07:19:48
Что вы добиваетесь опросом? Всё того же "я не хочу думать и читать, подскажите мне самое популярное и простое решение"?)

Alexander
29.08.2018
07:20:06
Насколько правильно использовать кластер кубернетеса из трех нод всего для прода? У меня вариант либо сворм либо кубер вижу

Михаил
29.08.2018
07:20:41
В гите

bebebe
29.08.2018
07:21:05

Alexander
29.08.2018
07:21:24

Михаил
29.08.2018
07:21:28

Alexander
29.08.2018
07:21:39

Михаил
29.08.2018
07:21:59

bebebe
29.08.2018
07:22:06

Михаил
29.08.2018
07:22:45

bebebe
29.08.2018
07:23:01
зачем вы это мне пишите? пишите Александру

Google

Alexander
29.08.2018
07:23:01
вашы workload'ы могут мешать pod'ам k8s работать
Насколько сильно? Есть какието статистики? Сворм изученное и проверенное решение но нравится все меньше( разводить кубер в котором я относительно новичек , на три ноды почемуто кажется таким себе делом)

bebebe
29.08.2018
07:23:24
смотря какой у вас прод

Михаил
29.08.2018
07:23:38

Alexander
29.08.2018
07:23:52

bebebe
29.08.2018
07:24:23

Vadim
29.08.2018
07:24:29
три мастера так себе идея, на таких маленьких кластерах проще один мастер с бэкапом etcd и отработанной процедурой восстановления