@kubernetes_ru

Страница 788 из 958
Nikolai
28.08.2018
15:26:34
Приветствую! В Kind: Pod при деплое в аннотации указывается политика безопасности restricted annotations: kubernetes.io/psp: restricted Как указать чтобы pod использовал кастомную PodSecurityPolicy ?

Google
Nikolai
28.08.2018
15:29:32
Указываю соотвествующий serviceAccountName в Kind: Deployment, но ничего не меняется - не могу понять, Pod Security Policies разве не через RBAC привязывается?

Nikolai
28.08.2018
16:29:49
Тем не менее инит контейнер ругается на то что политикой запрещён запуск команд от рута

Let Eat
28.08.2018
16:30:06
Вобщем, аннотация это не причина, а следствие :)

Nikolai
28.08.2018
16:31:42
Хм, вроде специально ничего такого не прописыал

Let Eat
28.08.2018
16:32:51
Можно посмотреть финальный ямл пода, там должно быть

Nikolai
28.08.2018
16:36:04
Ок, чуть позже скину

У меня через deployment - его конфиг показать ?

Twelfth
28.08.2018
17:30:18
@SinTeZoiD

Google
Yaros
28.08.2018
19:14:13
У кого-то есть опыт с ранчером? Поделитесь, пожалуйста, интересует и позитивный и негативный

Stas
28.08.2018
19:27:11
У кого-то есть опыт с ранчером? Поделитесь, пожалуйста, интересует и позитивный и негативный
вот сегодня в ранчере 1.6 делаю внутри стека nslookup и все ок, а потом пытаюсь между двумя стекам сходить и ничего. И куда осмотреть, что гуглить непонятно. С 2.0 у вас будет то же самое, не конкретно с днс, а с чем угодно и будете курить бамбук потому что стековерфлоу курить будет бесполезно.

и у их ux дизайнера трисомия по 21 хромосомной паре

Alexey
28.08.2018
19:34:56
и у их ux дизайнера трисомия по 21 хромосомной паре
люди использующие ранчер чаще других творят дичь вроде ssh в каждом контейнере и тп. Это отдельная ветка развития.

Stas
28.08.2018
19:47:01
так и сравнил, что если были странные вендорские свистоперделки в первом, которые не работали, то ничего не помешает наткнуться на них во втором, а если там ничего свистоперделачного нету (а там есть хотя бы тот же rke) то нахрен он вообще нужен?

kvaps
28.08.2018
19:52:53
но по хорошему это должен быть FQDN, типа foo.development.example.org а не foo.development

Игорь
28.08.2018
19:53:05
а когда поды в разных геолокациях, соединять их через vpn?

или кто делает поды в одной позиции?

Let Eat
28.08.2018
19:54:46
да
Ну тогда она уже умеет в куб ходить с правами ServiceAccount от которого запущена

kvaps
28.08.2018
19:55:27
а когда поды в разных геолокациях, соединять их через vpn?
я наверное не совсем вопрос понял, а что вы пытаетесь сделать?

Игорь
28.08.2018
19:55:47
это я к фразе свой dns

приватненький для подов, чтоб норм резолвилось, а весь мир об этом не знал

kvaps
28.08.2018
19:59:08
ну на мир вешается только ns запись аля зона dev.example.org спросить у ns-dev.example.org с приватным айпишником

Игорь
28.08.2018
19:59:31
ну... эм... блин

ладно, я просто подумал, что тут есть люди которые заменили правку докер-резолвера на бинд например, но без впн

Nikolai
28.08.2018
20:01:18
Можно посмотреть финальный ямл пода, там должно быть
как я понял моя проблема в этом: ... securityContext: 1 fsGroup: 1 supplementalGroup: -1 ... поскольку в статусе ошибка > container has runAsNonRoot and image has non-numeric user (vhost), cannot verify user is non-root

Google
Алексей
28.08.2018
20:16:01
Коллеги, у меня странная ситуация Поднят ingress-nginx даемонсетом через родной хелмовский чарт но при его работе остаётся огромное кол-во соединений в TIME_WAIT поднимаю рядом в докере обычный nginx, делают на него нагрузку - 19к рпс спокойно и TIME_WAIT вообще не создаются а тут на каждое соединение - два TIME_WAIT даже если иду просто на / , а он оттуда на default backend, оба на одной машине поставил даже net.ipv4.tcp_tw_reuse = 1 толку 0 как заставить его убирать за собой?

kvaps
28.08.2018
20:32:45
А я тут fencing к кубу прикрутил, кому интересно присоединяйтесь потестить: https://github.com/kvaps/kube-fencing

Let Eat
28.08.2018
20:51:08
kvaps
28.08.2018
20:53:45
У всех логика разная может быть заложена, у меня fencing-скрипт вычисляет hostame для ilo шасси и server_id например.

Let Eat
28.08.2018
20:56:03
Ну пусть скрипт и останется скриптом, почему он в отдельном поде?

kvaps
28.08.2018
20:56:43
А, идея была сделать fencing-agents полностью заменяемым компонентом

По аналогии с out of tree storage plugins, для fencing могут быть разные провайдеры

А контроллер остаётся контроллером

Fike
28.08.2018
21:53:47
Приходи в мою ложу вечером

Sergey
29.08.2018
03:03:47
@SinTeZoiD

bebebe
29.08.2018
04:10:23
На канале 1.6к подписоты, всего три поста лайфхаков и прочих прохладных историй. Про k8s не пишут

Banschikov
29.08.2018
04:32:12
Всем привет! Впервые пытаюсь вывести графану через nginx-ingress. Делаю вот так это дело: apiVersion: extensions/v1beta1 kind: Ingress metadata: name: grafana-ingress namespace: kube-system annotations: kubernetes.io/tls-acme: "true" kubernetes.io/ingress.class: "nginx" spec: tls: - hosts: - grafana.test.ru secretName: router-go-tls rules: - host: grafana.test.ru http: paths: - path: / backend: serviceName: monitoring-grafana servicePort: 80 В итоге графана отдает 404 ошибку, так полный url запросы выглядит так: https://grafana.test.ru/api/v1/namespaces/kube-system/services/monitoring-grafana/proxy/login Графана получает этот путь и отдает 404. Может кто сталкивался с этой задачей, и может подсказать как правильно нужно сделать?

bebebe
29.08.2018
04:32:26
Чево
того, зашел на этот канал который рекламят

Sergey
29.08.2018
04:42:54
Alexey
29.08.2018
05:48:21
я не могу его поправить, могу только пересоздать, но кмк он уже уехал в историю и врядли кому-то уже может быть интересен ))

там и первый пункт с кубспреем тоже выглядит не совсем так как я хотел в итоге

Google
Antony ??
29.08.2018
06:30:03
Anton
29.08.2018
07:19:06
а зачем старый опрос нужен?

Andor
29.08.2018
07:19:20
вот именно

Gleb
29.08.2018
07:19:27
Михаил
29.08.2018
07:19:48
Что вы добиваетесь опросом? Всё того же "я не хочу думать и читать, подскажите мне самое популярное и простое решение"?)

Alexander
29.08.2018
07:20:06
Насколько правильно использовать кластер кубернетеса из трех нод всего для прода? У меня вариант либо сворм либо кубер вижу

Михаил
29.08.2018
07:20:41
В гите

Alexander
29.08.2018
07:21:24
не очень, один мастер. два воркера?
Предполагал три мастера, они же в роли воркеров

Михаил
29.08.2018
07:21:28
не очень, один мастер. два воркера?
Три мастера три воркера

Alexander
29.08.2018
07:21:39
Три мастера три воркера
На трех хостах. Не на 6)

Михаил
29.08.2018
07:21:59
На трех хостах. Не на 6)
Ну я тебя правильно понял

bebebe
29.08.2018
07:22:06
Предполагал три мастера, они же в роли воркеров
вашы workload'ы могут мешать pod'ам k8s работать

Михаил
29.08.2018
07:22:45
bebebe
29.08.2018
07:23:01
зачем вы это мне пишите? пишите Александру

Google
Alexander
29.08.2018
07:23:01
вашы workload'ы могут мешать pod'ам k8s работать
Насколько сильно? Есть какието статистики? Сворм изученное и проверенное решение но нравится все меньше( разводить кубер в котором я относительно новичек , на три ноды почемуто кажется таким себе делом)

bebebe
29.08.2018
07:23:24
смотря какой у вас прод

Михаил
29.08.2018
07:23:38
Alexander
29.08.2018
07:23:52
смотря какой у вас прод
Нагрузка небольшая, сервиса 4 на го в докере

bebebe
29.08.2018
07:24:23
Vadim
29.08.2018
07:24:29
три мастера так себе идея, на таких маленьких кластерах проще один мастер с бэкапом etcd и отработанной процедурой восстановления

Страница 788 из 958