@kubernetes_ru

Страница 944 из 958
Andor
24.10.2018
07:59:56
так-то можно железки с 4гб оперативы купить, но это не очень безумная идея же

kvaps
24.10.2018
08:00:10
пора написать свой kubelet.sh

Andor
24.10.2018
08:00:24
> kubelet.sh’s server IP address could not be found. :(

kvaps
24.10.2018
08:03:17
уже вон шедуллер написали, так что дело за малым :) https://github.com/rothgar/bashScheduler

Google
Andor
24.10.2018
08:09:17
> Kubernetes scheduler written in 100 lines of bash ? ?

видно же что чувак баловался :)

bebebe
24.10.2018
08:11:48
Го не нужен, это было понятно сразу

kvaps
24.10.2018
08:14:22
Кстати есть подозрение что на arm'е он не будет столько-же сколько и на amd64 хавать

Andor
24.10.2018
08:15:51
Ну я ещё не пробовал конечно

Roman
24.10.2018
08:18:27
Ребят, всем привет

Объясните пожалуйста, для чего используется namespace kube-system?

kvaps
24.10.2018
08:22:32
Объясните пожалуйста, для чего используется namespace kube-system?
для системных ресурсов, тех что необходимы для функционирования kubernetes и его экосистемы

Roman
24.10.2018
08:24:07
ещё вопрос, какой бест практис, есть 2 неймспейса, дев и стэйджин. Создавать для каждого свой сервис аккаунт и деплоить через него, или всё через один?

Alexey
24.10.2018
08:33:54
имеет смысл разные сервис аккаунты делать, если деплоят разные гитлаб раннеры.

Roman
24.10.2018
08:39:30
понял, спасибо

Andor
24.10.2018
08:40:01
имеет смысл сервисы пихать в разные неймспейсы а для стейж-прод делать вообще разные кластеры

Alexey
24.10.2018
08:41:05
кстати да, про разные кластеры

Google
Alex
24.10.2018
08:44:24
имеет смысл сервисы пихать в разные неймспейсы а для стейж-прод делать вообще разные кластеры
День добрый! Когда ресечил эту проблему, нашёл больше рекомендаций дев и стейдж запускать в разных найм спейсах, а не кластерах.

Можешь поделиться мнением, почему лучше разные кластеры?

Andor
24.10.2018
08:46:20
чтобы 1) неправильный экспериментальный деплоймент в стейжинг не засрал тебе прод 2) была возможность экспериментировать с самим кубернетисом

Alexey
24.10.2018
08:47:27
У нас теже мысли были, когда на разные кластеры разносили

Alex
24.10.2018
08:48:50
Немного не понял, как деплоймент в стейджинге может засрать прод?

Andor
24.10.2018
08:49:13
съесть все ресурсы в кластере - легко

Denis
24.10.2018
08:49:29
Можно же ограничь ресурсы

На поды

Andor
24.10.2018
08:49:55
как это противоречит тому что я сказал?

Alex
24.10.2018
08:50:40
съесть все ресурсы в кластере - легко
Так для этого же обычно прод выносят на отдельные ноды?

Andor
24.10.2018
08:51:01
а разве можно прибивать неймспейсы к нодам?

вроде нельзя было

Denis
24.10.2018
08:51:21
Кубер не будет выжирать ресурсы выше заданного лимита и собственно он планирует размещение подов на основе заданных ресурс реквестов

Как он может выжрать все ресурсы?

Denis
24.10.2018
08:52:10
Это проблема не неймспейса, а обще вычислительной мощности кластера

Andor
24.10.2018
08:52:16
ошибки в деплойменте на стейжинг могут поаффектить прод

мой тезис был такой

мне кажется или ты хочешь оспорить этот тезис?

Google
Alex
24.10.2018
08:52:48
а разве можно прибивать неймспейсы к нодам?
Ну я вообще имел в виду для прода держать отдельно ноды с нужными тегами

Andor
24.10.2018
08:53:05
это же развязывает руки для экспериментов

Alexey
24.10.2018
08:53:39
Реально второй пункт про эксперименты имеет место быть

Мы пару раз засирали qa кластер

Salem
24.10.2018
08:54:37
главное не забывать синкать изменения с тестового на прод ?

Alex
24.10.2018
08:54:40
а почему бы тогда не держать отдельный кластер?
Доп затраты на железо? Хотя если есть необходимый бюджет, то это и не проблема)

Alexey
24.10.2018
08:55:10
Так у вас и так отдельные ноды

Andor
24.10.2018
08:55:12
ну тут смотря что дороже - работа людей и риски надёжности или пара дополнительных серверов/виртуалок под аписервера/етцд

кол-во нод то же самое же останется

Alex
24.10.2018
08:56:15
Тогда как вариант dev, uat , staging на одном кластере, а прод на другом

Andor
24.10.2018
08:56:57
Тогда как вариант dev, uat , staging на одном кластере, а прод на другом
если где-то надо будет нагрузочное тестирование делать, то может понадобиться разделить dev и staging например

но лично я голосую за отделение прода от не-прода

хотя бы как первый шаг

Alex
24.10.2018
08:57:43
кол-во нод то же самое же останется
Ну я имел в виду, что что мастер ноды вообще отдельно держать, или все в куче это нормальная практика?

Andor
24.10.2018
08:58:35
нормальность у всех разная

кто-то и етцд внутри кубера держит

а кто-то и аписервер бинарями на выделенных серверах запускает через системд

Nik
24.10.2018
09:01:44
но лично я голосую за отделение прода от не-прода
Пока стенда 2 - это не проблема. А когда их становится 20? Может лучше RBAC и нормальное ограничение на ресурсы?

Andor
24.10.2018
09:02:00
а что, 20 - это проблема?

Google
Nik
24.10.2018
09:02:24
20 кластеров поддерживать (еще и одинаковыми) уже сильно трудозатратнее

Anton
24.10.2018
09:02:36
сбор логов еще тема такая, которую сложно разделить в рамках одного кластера

Nik
24.10.2018
09:02:41
иначе начинаются вопросы на тесте работало а на проде не летит.

Anton
24.10.2018
09:02:54
тестовое барахло может засерить хорошенько, пробив лимиты и тд

Andor
24.10.2018
09:02:58
если ты руками кластер поднимаешь, то это конечно трудно

Nik
24.10.2018
09:03:33
automate all the things чувак
Почему разделение ресурсов внутри кластера так не одобряется?

Andor
24.10.2018
09:04:09
Почему разделение ресурсов внутри кластера так не одобряется?
потому что это не мешает тебе сделать по ошибке replicas: 100 в стейжинговом неймспейсе и выесть все ресурсы кластера

Vadim
24.10.2018
09:04:16
Почему разделение ресурсов внутри кластера так не одобряется?
чтобы одним движением руки навернулся один кластер, а не 20

Andor
24.10.2018
09:05:27
в том же заландо ваще кластер на условный проект

kvaps
24.10.2018
09:05:27
а разве можно прибивать неймспейсы к нодам?
Можно, и достаточно легко теперь https://stackoverflow.com/questions/52487333/how-to-assign-a-namespace-to-certain-nodes

Andor
24.10.2018
09:06:26
а они есть?

gleb
24.10.2018
09:11:19
Добрый день. Не подскажете, в случае со свежеустановленным kubernetes 1.11.3, какие условия должны быть выполнены для подключения к удалённому кластеру с помощью kubectl с внешки? Если я правильно понял, в общем случае следует подсунуть локальному kubectl файл .kube/config, изменив в нём адрес сервера, и всё должно взлететь. kubeadm init на матсере выполнен с параметром --apiserver-cert-extra-sans, но всё равно полноценно подключиться не выходит.

Nik
24.10.2018
09:14:40
а они есть?
https://kubernetes.io/docs/concepts/policy/resource-quotas/

Не?

Дмитрий
24.10.2018
09:15:14
https://kubernetes.io/docs/concepts/policy/resource-quotas/
Как ресурсы можно ограничить, так и число подов

Google
Nik
24.10.2018
09:15:54
Ну тогда снова вопрос - зачем делать много кластеров?

gleb
24.10.2018
09:16:12
А он у вас к api-серверу то подключается вообще?
Извините за нубство, но вопроса не понял. Речь про отсутствие сетевых проблем?

Andor
24.10.2018
09:17:36
https://kubernetes.io/docs/concepts/policy/resource-quotas/
okay okay, я не шарю в admission control'ах

Nik
24.10.2018
09:19:28
okay okay, я не шарю в admission control'ах
Да я сам только неделю как ковыряюсь в доке. RBAC нормально до сих пор не настроил.

gleb
24.10.2018
09:20:37
telnet k8s-master 6443
Да, на сети очевидных проблем нет. Сообщения об ошибках явно от сервера, я и версию софта на сервере мог посмотреть, если из config удалить данные сертификата, но в этом случае список подов, например, получить не выходит.

Maksim
24.10.2018
09:22:50
А что за ошибка?

gleb
24.10.2018
09:31:14
А что за ошибка?
>kubectl get nodes --insecure-skip-tls-verify=true No resources found. Error from server (Forbidden): nodes is forbidden: User "system:anonymous" cannot list nodes at the cluster scope >kubectl get nodes No resources found. Unable to connect to the server: x509: certificate signed by unknown authority

Maksim
24.10.2018
09:32:00
RBAC работает

Дмитрий
24.10.2018
09:32:04
Почитай про https client authorisation

gleb
24.10.2018
09:32:08
А зачем менять адрес сервера? Он не резолвиться?
Ну адрес в файле, взятом с мастера он локальный, а я подключаюсь не из той же сети

Maksim
24.10.2018
09:32:22
Дай теперь .kube/config

Vadim
24.10.2018
09:32:48
Ну адрес в файле, взятом с мастера он локальный, а я подключаюсь не из той же сети
так может мастер только локально и слушает. Тогда начинай по новой, с правильным адресом кластера, так чтобы там ничего менять не пришлось

Maksim
24.10.2018
09:33:21
Суть в том что ты работаешь от имени system:anonimous который ничего не может

Vadim
24.10.2018
09:33:43
Alex
24.10.2018
09:34:01
Хотел ещё спросить про инструменты деплоя в куб. Хотелось что бы скрипты накатки и темплейты конфигов лежали все в одном месте + актуальные значения для конфигов для каждого окружения в зашифрованном виде. Грубо говоря что бы я одной командой поднял все окружение - все мои сервисы и какой-нибудь консул и в этот консул залил нужные мне кофиги. Что то похожее на ansible только для k8s ??

Maksim
24.10.2018
09:34:18
Плин сертификат самоподписанный

Он же пишет, что нету доверия к авторизационному центру

Вы читайте потом советуйте

Страница 944 из 958