Paradigm
Смотри ресурсы запрошенные подом и доступные на нодах. Шедулер сказал, что не может найти ноду для пода
у меня нет нод, всё на мастере крутится, сейчас пробую сбросить helm и заного инициировать
Maksim
У тебя кублет ест?
Maksim
Kubectl get no?
Anatoliy
Ребят, у кого дашборда новая, видели такое: "Metric client health check failed: the server could not find the requested resource (get services heapster). Retrying in 30 seconds" ?
Anatoliy
А может кто подсказать что надо сделать что бы кубер мог в директории писать и создавать? А то контейнер стартует, но он пишет что дескать - не могу писать. Я где то что-то упустил?
Ivan
Может прав на запись нету, а юзер не рут?
Anatoliy
наверное вы установили как ингрес
https://pastebin.com/6KKBkJZ3 я сделал вот так
Anatoliy
Не уверен что правильно, т.к. вроде это как раз stateful, но пока хоть так разобраться, тем более что другие приложения могут иметь ту же проблему
ℭ𝔞𝔯𝔯𝔬𝔩
Видимо я где то жестко туплю. Что бы можно было быстро и просто добавлять ноду кубера нужен маас, так? Т.е. мы берем чистое железо, ставим маас, настраиваем, потом в нем разворачиваем маас ноду с уже настроенным кубером?
берём чистое железо одну штуку, ставим и настраиваем MaaS контроллер а все остальные чистые железки просто включаем в сеть и разрешаем PXE загрузку по сети
Anatoliy
Остальное MaaS контроллер сдедает сам
класс, а если другие железки без локальнйо сети работают? т.е. просто сервера в ДЦ с внешними ИПами?
Anatoliy
Хотя судя по всему можно, но все равно кажется не для меня - вряд ли в в арендованных машинках будет PXE
Karey
https://typhoon.psdn.io/bare-metal/
Здорово, спасибо!
G72K
Хотя судя по всему можно, но все равно кажется не для меня - вряд ли в в арендованных машинках будет PXE
А не надо PXE, можно iPXE , который просто чистый http умеет. В итоге достаточно generic-ipxe.lkrn (с ipxe.org можно стянуть) + grub
Anatoliy
А не надо PXE, можно iPXE , который просто чистый http умеет. В итоге достаточно generic-ipxe.lkrn (с ipxe.org можно стянуть) + grub
это я уже смотрел, но тут мысля млькает так ли оно мне надо и стоит ли заморачиваться, ведь скорее всего машин будет не так уж и много, а если придется приходить к тому, что потребуется динамическое расширение их количества - то тут уже более серьезный подход нужен, все равно под такую задачу придется создавать кластер, ничего не мешает потом ведь слить репы в него и подключить старые машины по новой?
Anatoliy
И да, может кто подсказать, какого лешего при старте контейнера и попытке записать что-то в вольюм мне дается сообщение что нет прав на запись?
Anatoliy
Щас я смотрел в сторону установки на хост машине прав 777 на папки, но думаю это плохой подход. плюс еще видел установку прав через инит контейнер, но тут проблема в том что бы назначить нужные uid & gid
Anatoliy
Может кто помочь? Я делаю такую штуку: https://pastebin.com/6KKBkJZ3 И вижу в логах пода вот это: Started with PID 7, waiting for exit signal. Config directory is not writable: /youtrack/conf И по идее такого быть не должно, это же докер, а он умеет подобное разруливать. Что не так я не понимаю. Надо что бы я мог указать папку и оно просто начинало работать. Но сейчас нашел только два варианта - первый это 777 на папки на хост машине, второй - это инит контейнер который ставит права. При том что этот инит контейнер еще должен как-то узнать какие uid & gid ставить, что тоже не всегда просто сделать
Paradigm
burner@kube:/root$ helm list Error: forwarding ports: error upgrading connection: error dialing backend: dial tcp 195.133.48.239:10250: getsockopt: connection timed out
Paradigm
что может быть ? где искать
Anton
burner@kube:/root$ helm list Error: forwarding ports: error upgrading connection: error dialing backend: dial tcp 195.133.48.239:10250: getsockopt: connection timed out
Похоже что хелм не может связаться с тиллером на какой то машине через кубелет. Или кубелет сдох или что то мешает ему принимать трафик. У меня была похожая проблема недавно, пока все правила iptables не сбросил кубелет пакеты не получал. Я хз кто виноват был, кубе прокси тоже не мог нат правила обновить при этом. У него ошибка в логе была. Я машину раскатывал заново.
Paradigm
Благодарю, проверю отпишусь
Anton
Ну тоесть с мастера, к которому делаешь коннект (в конфиге для кубектл написан адрес) нужно проверить что доступен 10250 порт указанной машины
dk
WeaveScope на ядрах < 4.4 не работает?
dk
А не, должно, там воркараунд есть
dk
А кто-то запиливал кубер ldap-авторизацией с разграничением доступа к апи по группам?
Paradigm
Парни какие минимальные требования для master и node ? для запуска 5 приложений ?
Serega
от приложений зависит
Serega
если легкие, то по 4г памяти хватит на мастер и ноду. Плюс учесть что etcd делает около 20-30 iops даже в сингл режиме.
Anatoliy
а что не так с инит-контейнером? всегда так делаю
не так то, что приложение в контейнере не может писать в папки вольюма. Что я упустил? Почему ничего писать не могу?
Sergei
ну да, но запуск инит-контейнера, который подготавливает вольюмы (в т.ч. ставит чмоды) - норм.
Anatoliy
ну да, но запуск инит-контейнера, который подготавливает вольюмы (в т.ч. ставит чмоды) - норм.
хм... а если я запускаю контейнер в котором не знаю какие uid&gid у пользователя?
Vitalii
А кто-то запиливал кубер ldap-авторизацией с разграничением доступа к апи по группам?
Я недавно написал прокси с авторизацией, но пока на гитхаб не выложил
Oleksandr
Oleksandr
ну и вопрос сразу у меня возник - зачем что-то запускать, если не знать что внутри...
Anatoliy
ну и вопрос сразу у меня возник - зачем что-то запускать, если не знать что внутри...
например использовать как песочницу для проверки что оно будет делать?
Oleksandr
ну в логах и увидеть permission denied
Oleksandr
самое то для віяснения в песочнице
Oleksandr
еще можно почитать доку на контейнер и требования
Oleksandr
а первый раз интерактивно запустить и глазами посмотреть
Роман
Anatoliy
А может кто подсказать как кибану заставить не индексировать поля через конфиг в кубере? Как ей этот конфиг скормить?
Anatoliy
Точнее не анализировать
Anatoliy
Ошибся немного)
bebebe
а можно ли логи с определенны подов направлять в syslog pod без всяких fluentd и прочего?
bebebe
я про те логи, которые доступны через kubectl logs ?
bebebe
средставами k8s?
🅰ртем Вилков
@everyone а ктонить сервис каталог/сервис брокеры юзал?
Anatoliy
Эм... поясните пожалуйста StorageClass НЕ предназначены для работы локально? И ли я что-то не так понял?
Anatoliy
Ок, не так выразился, динамическое создание вольюма используя место на серверах на которых расположен кубер?
Anatoliy
Ну не хочу я гугл клауд или нечто подобное, не надо оно мне. Но создавать кучу вольюмов руками - тоже такое себе. При этом гластерфс и прочее тоже не нужно. А StorageClass вроде работать с местом на самих машинах кластера не умеет получается?
Vitalii
EmptyDir удаляется при удалении пода
Vitalii
Kubernetes это не sds - автомагически он ничего не делает. В доке с volumes есть список плагинов, нужно выбирать из них
G72K
ну да, но запуск инит-контейнера, который подготавливает вольюмы (в т.ч. ставит чмоды) - норм.
kubelet же сам умеет chmod делать, надо только сказать от какого юзера запускать контейнер
Anatoliy
есть еще Local Volume
как я понял - volume это то что выдается в полном объеме при запросе. т.е. мне надо 1 гиг но вольюм на 100, и я получу 100, так? если же я использую storageclass - то я могу из этих 100 гигов получить ровно 1 который мне и нужен. так?
Anatoliy
Видимо я что-то не так понял. Я хочу выделить приложению 1 Гб места, я создаю pv, потом pvc и уже pvc монтирую к поду. А теперь допустим мне надо сделать два пода, и опять надо добавлять руками pv & pvc. Так? При этом если я пользуюсь storage class то я могу просто сказать сколько места не надо, так? Или я что-то не понимаю?
Bsod
а что мешает проверять свои мысли на кластере? кто-то побьет за новый под/сервис?
Bsod
создал неймспейс и играйсо
Anatoliy
Да никто не побьет, просто из того что я нахожу - storage class работает только с другими сервисами типа гугл клауда и прочего
Anatoliy
А pv и так использую
Anatoliy
Видимо я что-то всё же не понимаю... я могу иметь один сервер кубера в котором динамически буду создавать нужные мне вольюмы? Т.е. создать клэйм в котором сказать что мне надо столько то, и оно должно взяться с ноды1, а дальше его цеплять? При этом вольюма может не быть, он будет создан динамически
Anatoliy
Видел, о в итоге вольюмы я все равно создаю руками, так? "/mnt/disks/vol1"
Anatoliy
и так же vol2, vol3 и т.д.
G72K
1. можете создать один pv и несколько pvc смогут подцепить его, указывайте размер в pvc меньше чем в pv 2. есть external provisioners : https://github.com/kubernetes-incubator/external-storage которые могут создавать volume какие только захотите
Anatoliy
1. можете создать один pv и несколько pvc смогут подцепить его, указывайте размер в pvc меньше чем в pv 2. есть external provisioners : https://github.com/kubernetes-incubator/external-storage которые могут создавать volume какие только захотите
вот я с первым пунктом как раз не могу понять. в итоге к каким папкам будут подключаться поды которые будут иметь pvc? ведь у нас именно в pv указывается путь....
. Lu .
Hi