
Andor
24.10.2018
07:59:56
так-то можно железки с 4гб оперативы купить, но это не очень безумная идея же

kvaps
24.10.2018
08:00:10
пора написать свой kubelet.sh

Andor
24.10.2018
08:00:24
> kubelet.sh’s server IP address could not be found.
:(

kvaps
24.10.2018
08:03:17
уже вон шедуллер написали, так что дело за малым :)
https://github.com/rothgar/bashScheduler

Google

Andor
24.10.2018
08:09:17
> Kubernetes scheduler written in 100 lines of bash ? ?
видно же что чувак баловался :)

bebebe
24.10.2018
08:11:48
Го не нужен, это было понятно сразу

kvaps
24.10.2018
08:14:22
Кстати есть подозрение что на arm'е он не будет столько-же сколько и на amd64 хавать

Andor
24.10.2018
08:15:51
Ну я ещё не пробовал конечно

Roman
24.10.2018
08:18:27
Ребят, всем привет
Объясните пожалуйста, для чего используется namespace kube-system?

kvaps
24.10.2018
08:22:32

Roman
24.10.2018
08:24:07
ещё вопрос, какой бест практис, есть 2 неймспейса, дев и стэйджин. Создавать для каждого свой сервис аккаунт и деплоить через него, или всё через один?

Alexey
24.10.2018
08:33:54
имеет смысл разные сервис аккаунты делать, если деплоят разные гитлаб раннеры.

Roman
24.10.2018
08:39:30
понял, спасибо

Andor
24.10.2018
08:40:01
имеет смысл сервисы пихать в разные неймспейсы а для стейж-прод делать вообще разные кластеры

Alexey
24.10.2018
08:41:05
кстати да, про разные кластеры

Google

Alex
24.10.2018
08:44:24
Можешь поделиться мнением, почему лучше разные кластеры?

Andor
24.10.2018
08:46:20
чтобы
1) неправильный экспериментальный деплоймент в стейжинг не засрал тебе прод
2) была возможность экспериментировать с самим кубернетисом

Alexey
24.10.2018
08:47:27
У нас теже мысли были, когда на разные кластеры разносили

Alex
24.10.2018
08:48:50
Немного не понял, как деплоймент в стейджинге может засрать прод?

Andor
24.10.2018
08:49:13
съесть все ресурсы в кластере - легко

Denis
24.10.2018
08:49:29
Можно же ограничь ресурсы
На поды

Andor
24.10.2018
08:49:55
как это противоречит тому что я сказал?

Alex
24.10.2018
08:50:40

Andor
24.10.2018
08:51:01
а разве можно прибивать неймспейсы к нодам?
вроде нельзя было

Denis
24.10.2018
08:51:21
Кубер не будет выжирать ресурсы выше заданного лимита и собственно он планирует размещение подов на основе заданных ресурс реквестов
Как он может выжрать все ресурсы?

Andor
24.10.2018
08:51:40

Denis
24.10.2018
08:52:10
Это проблема не неймспейса, а обще вычислительной мощности кластера

Andor
24.10.2018
08:52:16
ошибки в деплойменте на стейжинг могут поаффектить прод
мой тезис был такой
мне кажется или ты хочешь оспорить этот тезис?

Salem
24.10.2018
08:52:40

Google

Alex
24.10.2018
08:52:48

Andor
24.10.2018
08:53:05
это же развязывает руки для экспериментов

Alexey
24.10.2018
08:53:39
Реально второй пункт про эксперименты имеет место быть
Мы пару раз засирали qa кластер

Salem
24.10.2018
08:54:37
главное не забывать синкать изменения с тестового на прод ?

Alex
24.10.2018
08:54:40

Alexey
24.10.2018
08:55:10
Так у вас и так отдельные ноды

Andor
24.10.2018
08:55:12
ну тут смотря что дороже - работа людей и риски надёжности или пара дополнительных серверов/виртуалок под аписервера/етцд
кол-во нод то же самое же останется

Alex
24.10.2018
08:56:15
Тогда как вариант dev, uat , staging на одном кластере, а прод на другом

Andor
24.10.2018
08:56:57
но лично я голосую за отделение прода от не-прода
хотя бы как первый шаг

Alex
24.10.2018
08:57:43

Andor
24.10.2018
08:58:35
нормальность у всех разная
кто-то и етцд внутри кубера держит
а кто-то и аписервер бинарями на выделенных серверах запускает через системд

Nik
24.10.2018
09:01:44

Andor
24.10.2018
09:02:00
а что, 20 - это проблема?

Google

Nik
24.10.2018
09:02:24
20 кластеров поддерживать (еще и одинаковыми) уже сильно трудозатратнее

Anton
24.10.2018
09:02:36
сбор логов еще тема такая, которую сложно разделить в рамках одного кластера

Nik
24.10.2018
09:02:41
иначе начинаются вопросы на тесте работало а на проде не летит.

Anton
24.10.2018
09:02:54
тестовое барахло может засерить хорошенько, пробив лимиты и тд

Andor
24.10.2018
09:02:58
если ты руками кластер поднимаешь, то это конечно трудно

Nik
24.10.2018
09:03:33

kvaps
24.10.2018
09:03:36

Andor
24.10.2018
09:04:09

Vadim
24.10.2018
09:04:16

Andor
24.10.2018
09:05:27
в том же заландо ваще кластер на условный проект

kvaps
24.10.2018
09:05:27

Andor
24.10.2018
09:06:05

Nik
24.10.2018
09:06:10

Andor
24.10.2018
09:06:26
а они есть?

gleb
24.10.2018
09:11:19
Добрый день. Не подскажете, в случае со свежеустановленным kubernetes 1.11.3, какие условия должны быть выполнены для подключения к удалённому кластеру с помощью kubectl с внешки? Если я правильно понял, в общем случае следует подсунуть локальному kubectl файл .kube/config, изменив в нём адрес сервера, и всё должно взлететь. kubeadm init на матсере выполнен с параметром --apiserver-cert-extra-sans, но всё равно полноценно подключиться не выходит.

Nik
24.10.2018
09:14:40
а они есть?
https://kubernetes.io/docs/concepts/policy/resource-quotas/
Не?

kvaps
24.10.2018
09:15:02

Дмитрий
24.10.2018
09:15:14

Google

Nik
24.10.2018
09:15:54
Ну тогда снова вопрос - зачем делать много кластеров?

gleb
24.10.2018
09:16:12

Nik
24.10.2018
09:16:43

Andor
24.10.2018
09:17:36

Nik
24.10.2018
09:19:28

gleb
24.10.2018
09:20:37
telnet k8s-master 6443
Да, на сети очевидных проблем нет. Сообщения об ошибках явно от сервера, я и версию софта на сервере мог посмотреть, если из config удалить данные сертификата, но в этом случае список подов, например, получить не выходит.

Maksim
24.10.2018
09:22:50
А что за ошибка?

Vadim
24.10.2018
09:30:40

gleb
24.10.2018
09:31:14
А что за ошибка?
>kubectl get nodes --insecure-skip-tls-verify=true
No resources found.
Error from server (Forbidden): nodes is forbidden: User "system:anonymous" cannot list nodes at the cluster scope
>kubectl get nodes
No resources found.
Unable to connect to the server: x509: certificate signed by unknown authority

Maksim
24.10.2018
09:32:00
RBAC работает

Дмитрий
24.10.2018
09:32:04
Почитай про https client authorisation

gleb
24.10.2018
09:32:08

Maksim
24.10.2018
09:32:22
Дай теперь .kube/config

Vadim
24.10.2018
09:32:48

Maksim
24.10.2018
09:33:21
Суть в том что ты работаешь от имени system:anonimous который ничего не может

Vadim
24.10.2018
09:33:43

Alex
24.10.2018
09:34:01
Хотел ещё спросить про инструменты деплоя в куб. Хотелось что бы скрипты накатки и темплейты конфигов лежали все в одном месте + актуальные значения для конфигов для каждого окружения в зашифрованном виде.
Грубо говоря что бы я одной командой поднял все окружение - все мои сервисы и какой-нибудь консул и в этот консул залил нужные мне кофиги. Что то похожее на ansible только для k8s ??

Maksim
24.10.2018
09:34:18
Плин сертификат самоподписанный
Он же пишет, что нету доверия к авторизационному центру
Вы читайте потом советуйте