@kubernetes_ru

Страница 502 из 958
Konstantin
02.04.2018
14:15:54
и на ручки

Gleb
02.04.2018
14:16:03
я не хочу ничего запускать, я хочу как GKE, но в рашке
Такого, насколько я помню, у нас ничего и нету. На удивление )

Yuriy
02.04.2018
14:16:37


Mayday
02.04.2018
15:09:42
для etcd нормально занимать по 10гиг виртуальной памяти на всех нодах, при том, что кластер практически пуст? DB SIZE = 15MB, три ноды.

Google
Mayday
02.04.2018
15:52:46
Просто непонятен этот аппетит

Stanislav
02.04.2018
15:54:00
для etcd нормально занимать по 10гиг виртуальной памяти на всех нодах, при том, что кластер практически пуст? DB SIZE = 15MB, три ноды.
SBCL загребает 150Т виртуальной памяти при потребности в 4 ГБ обычной памяти, нопремер.

Алексей
02.04.2018
16:49:02
Эт ты математику вспомнил?

Stanislav
02.04.2018
16:58:46
Да

Andor
02.04.2018
17:35:56
Просто непонятен этот аппетит
С каких пор "виртуальная память" стала "аппетит"?

Andrew
02.04.2018
17:37:20
И с каких пор она начала кого-то беспокоить?..

Andor
02.04.2018
17:54:43
Вот ага

Stanislav
02.04.2018
18:07:28
Видимо, vm.overcommit_memory=2 у беспокоящегося.

Алексей
02.04.2018
18:25:08
по виртуальной памяти подозреваю что такое поведение обусловленно реализацие зеленых трэдов в go их может быть как бы очень много, и им по сути нужно единое адресное пространство это скорей специфика языка, а не конкретно etcd

Yuriy
02.04.2018
19:17:38
У меня вопрос, у кого-нибудь есть работоспособный кластер с несколькими мастерами на bare-metal или vmware ?

Max
02.04.2018
19:21:04
Yuriy Полагаю что нету) AWS/Google Cloud/OpenStack/OpenShift, возможно диджиталоекан еще - будут работать. С Боксом или баре-метал костыльное решение получается с 1 кластером на одном сервере. На “поучиться” хватает, но в продакшн такоей велосипед не выкотишь

Google
Andor
02.04.2018
19:22:58
прикольный вопрос

Max
02.04.2018
19:23:12
основной костыль это прокси (балансер). Ингрес и прочее - очень больно настраивать

Nick
02.04.2018
19:23:41
а чего там больного?

Max
02.04.2018
19:24:02
на виртуальной коробке я вообще через пару дней данные потерял (Персистант волюм)

Nick
02.04.2018
19:24:11
хотя да, согласен, вечно доки не актуальные

Max
02.04.2018
19:24:59
))) ну я настроил ) просто выбешивало то, что в кластере у ноды может быть 30 000 + порт, а мне скажем 55002 нужно было на дженкинс открывать )

по этому только клауд стоит брать - к8с проектировался в принципе для клауда

ЕС2 + ЕДС + балансер пожалуй все что нужно

Это из ряда чтобы по карману не ударило) у гугла старт будет от 280 баксов в месяц (примерно) за к8с. Остальные - я уже не вспомню цены.

Yuriy
02.04.2018
19:27:31
Я просто уже неделю пытаюсь нормальный кластер поднять на BM, и каждый шаг это тонна костылей, не соответсвие документации или ее отсутсивие, сейчас калстер поднялся якобы как но CNI интерфейс почему то поднимается только на одной мастер ноде а не на 3-х как надо. Я уже незнаю что делать.

Max
02.04.2018
19:28:47
у меня была инструкция на 1.5 где-то. На 1.9 там все кубадмин разруливает

Yuriy
02.04.2018
19:31:50
Есть
Ты самый полезный человек

Ты самый полезный человек
Открой мне тайну, почему из 3-х мастер нод только на одной поднимается cni0 интерфейс. Я из перегружаю тушу, что только не делаю но поднимается только на одной любой из 3-х. Щас скрины даже покажу.

Anton
02.04.2018
19:32:24
Kubespray

Yuriy
02.04.2018
19:34:14






Google
Let Eat
02.04.2018
19:35:18
Ты самый полезный человек
Тайна простая : Каждый Apiserver должен видеть и уметь подключаться к каждому etcd . Затем каждый kubelet должен видеть и уметь подключаться к каждому apiserver. Все это умеют делать kubespray, typhoon, вручную (советую bootkube чтобы совсем мало руками возиться при таком способе)

Я честно не помню как интерфейсы должны называться. Но интересное дело - cni0 только на той ноде где есть контейнер (под?) запущеный, может связано?

Let Eat
02.04.2018
19:42:33
Все ноды в ready ?

Yuriy
02.04.2018
19:42:44
да

Let Eat
02.04.2018
19:42:46
Что скейлил?

Yuriy
02.04.2018
19:42:52
dns

Let Eat
02.04.2018
19:43:25
Что пишкт в describe deploy kube-dns?

(события). Оно поды создает? Или даже поды не создает?

Yuriy
02.04.2018
19:43:56
создаёт

при попытке скейла он терминирует старый ДНС и запускает на его месте новый под

Let Eat
02.04.2018
19:44:30
Что в describe подов, которые не могут запуститься?

Yuriy
02.04.2018
19:45:05
щас гляну минуту

Let Eat
02.04.2018
19:45:16
Так. В стабилньом состоянии сколько днс подов у вас (запущенных, с ошибками, pending и проч)

Yuriy
02.04.2018
19:45:25
0



Let Eat
02.04.2018
19:45:48
Ну и где же 0? Вон один вижу

Yuriy
02.04.2018
19:46:29
опечатка

Let Eat
02.04.2018
19:47:12
Бывает. get hpa в том же ns показывает что нибудь?

Google
Yuriy
02.04.2018
19:48:35
kubectl get horizontalpodautoscaler —all-namespaces No resources found.

Let Eat
02.04.2018
19:49:26
Kube dns деплой или демонсет? Кинь весь его ямл прямо из кластера в pastebin

Yuriy
02.04.2018
19:50:05
демонсет

не Деплоймент

Let Eat
02.04.2018
19:51:03
kubectl describe nodes тоже в pastebin

Yuriy
02.04.2018
19:51:06


Let Eat
02.04.2018
19:51:43
Не, добавь -o yaml

И потом сделай kubectl scale его

Взлетело?

Yuriy
02.04.2018
19:55:47
щас чет туплю немнго

Взлетело?
Все взлетело и интерфейсы появились. Спасибо за помощь.



Let Eat
02.04.2018
20:21:58
Все взлетело и интерфейсы появились. Спасибо за помощь.
Мы ничего,не поменяли, все уже работало значит

Yuriy
02.04.2018
20:23:42
Да, видимо зря почти 2 дня танцевал вокруг кластера.

Да, видимо зря почти 2 дня танцевал вокруг кластера.
Осталось победить аутентификацию в Dashboard и базовый кластер готов.

Vadim
03.04.2018
06:25:00
всем привет подскажите, хочу настроить кластер на основании 2-х вирутальных машин (мастер+1 воркер) пока для старта, с перспективой роста хочу на 2-х машинах поставить CoreOS из ISO-образа есть ли смысл на мастере еще разворачивать Kubernetes?

Anton
03.04.2018
06:28:45
так это ж кластер kubernetes будет из двух машин. что вы имеете ввиду?

Vadim
03.04.2018
06:34:38
ну я говорю об этом образе: https://coreos.com/os/docs/latest/booting-with-iso.html он же идет без Kubernetes, на сколько я понимаю

там на мастере используется etcd

Google
Vadim
03.04.2018
06:38:00
на tectonic смотрел, инсталляция показалась слишком сложной как для старта

еще гляну typhoon

смотрите в сторну tectonic или typhoon, они на coreos и разворачивают кластер на bare metal
а есть ли смысл на мастере еще разворачивать Kubernetes, не хватит для старта только функционала CoreOS?

Fike
03.04.2018
06:48:45
Вы говорите про создание кластера k8s, но при этом говорите про отказ от необходимости разворачивать k8s, это немного контрисключающие положения

Andor
03.04.2018
07:00:05
Слово "контрисключающие" ломает мне мозг

Anton
03.04.2018
07:00:49
а постановка вопроса "есть ли смысл на мастере еще разворачивать Kubernetes?" не ломает?

Юра
03.04.2018
07:00:52
Да, я тоже завис с утра на нём :)

Andrew
03.04.2018
07:29:03
Слово "контрисключающие" ломает мне мозг
Есть идеи что оно может значить?

Типа минус на минус дает плюс? контр+исключающие=соответствующие?

Max
03.04.2018
07:32:13
Хм, bare-metal - лучше с kubeboot начать или все же сразу с kubespray или typhoon?

Vadim
03.04.2018
07:32:24
не судите строго, я в процессе изучения этих технологий по документации CoreOS я не вижу зависимости создания кластера от Kubernetes у CoreOS свой мастер с etcd, вот тут прочитал: https://coreos.com/os/docs/latest/cluster-architectures.html

мастером я назвал "etcd-машину" ))

Страница 502 из 958