Anatoliy
тогда я не понимаю зачем maas нужен(
Anatoliy
видимо просто не могу понять что он дает вообще
Евгений
тогда я не понимаю зачем maas нужен(
maas: PXE+DHCP+DNS environment c автоматизацией установки ОС, получения единой инвентори И так далее … наверное наиболее пользиетельно его использовать в связке с juju - тогда можно - просто одним движением получать дополнительную worker ноду … просто изменением читсла unit… в сервисном juju charm…. как то так
Anatoliy
ну хорошо, допустим это можно, но если есть контейнеры то зачем оно надо?...
Евгений
ну так это для автоматизации маштабирования самой инфрастуктуры k8s
Karey
Как в PXE добавят поддержку k8s так и пропадет необходимость в всем этом барахле
Anatoliy
Видимо я где то жестко туплю. Что бы можно было быстро и просто добавлять ноду кубера нужен маас, так? Т.е. мы берем чистое железо, ставим маас, настраиваем, потом в нем разворачиваем маас ноду с уже настроенным кубером?
Anatoliy
Или как?
Евгений
ну да сервера управляются maas/juju - у тебя есть модель описанная работы  k8s … https://kubernetes.io/docs/getting-started-guides/ubuntu/installation/
Karey
Это вообще не про кубер. Есть сервер, только что из упаковки, на него нужно накатить систему и настроить сеть
Alex Sharov
@rossmohax приложение уже размазано на два неймспейса
Alex Sharov
в первом сервисы самого приложения ( 5+ ), во втором необходимая инфра типа базы, nfs сервера и тд
Anatoliy
Мда... видимо что-то я всё же не учел( kubelet не хочет стартовать(
Karey
Это была попытка пошутить)
G72K
@rossmohax приложение уже размазано на два неймспейса
Ну можно закодировать окружения в сами неймспейсы. dev-A, staging-A. А вообще зачем одно приложение на неймспейсы нарезали? Было б в одном , можно было б хоть по неймспейсу на каждый билд :)
Anatoliy
Ребят, что я сделал не так? cat: /etc/kubernetes/admin.conf: No such file or directory
Anatoliy
localhost 8080 тоже пусто
Anatoliy
The connection to the server localhost:8080 was refused
G72K
https://maas.io/
Оно ебовее foreman?
G72K
Там список внизу, Maas is used by и логотипчики, состав такой что неглядя возникает подозрение,что это рак
Alex Sharov
@rossmohax хороша ли практика засосывать все в один неймспейс?)
Alex Sharov
К счастью, после переезда на helm слить все в один наймспейс - дело пары минут
Dmitry
https://github.com/smpio/kubernator
Anatoliy
Никто не сталкивался, kubespray говорит ok: [node1] => { "changed": false, "failed": false, "msg": "All assertions passed" } fatal: [node2]: FAILED! => { "assertion": "ansible_swaptotal_mb == 0", "changed": false, "evaluated_to": false, "failed": true } Хотя свапа там вообще нет, просто отключен полностью. Причем не важно вообще тчо там будет - хоть включай, хоть отключай - ошибка(
Anatoliy
при всем этом: $ ansible -i inventory/inventory.cfg -m setup all | grep ansible_swaptotal_mb "ansible_swaptotal_mb": 0, "ansible_swaptotal_mb": 0,
Anatoliy
В общем нифига не понятно, то оно ругается на ошибку, то нет. Странно все. Сейчас все поставилось, но при этом через proxy никуда не попадает( Вот что за бред...((
Anatoliy
Заработало, проблема была в том что Bash on Ubuntu on WIndows не работает с kubectl proxy. Но теперь косяк в Error: 'malformed HTTP response "\x15\x03\x01\x00\x02\x02"' Trying to reach: 'http://10.233.64.3:8443/'
Anatoliy
Это при обращении на 127.0.0.1:8001/ui
Anatoliy
Народ, поясните пожалуйста, видимо я чего-то не понимаю. У меня есть 2 железных сервера в кластере, каждый из них мастер и нода, если я рестартаю второй по счету, то на первом могу спокойно выполнять kubectl get node и видеть что просто упала нода. А если перезагружаю первый - то второй говорит что присобачиться к первому не может(что логично), но ведь он тоже мастер? Разве он не должен просто продолжить работать подняв все контейнеры с сервера 1 у себя?
Anton
лучше приведите цитату их лога с указанием процесса, который этот лог пишет
dk
Подскажите пожалуйста, откуда взялось 10.96? https://paste.laravel.io/eec66fe0-df46-4149-9e71-bf5169c8304a
Anatoliy
лучше приведите цитату их лога с указанием процесса, который этот лог пишет
я просто не могу понять где этот лог вообще взять, с пода? так там пусто
Anatoliy
хм.... вроде именно так и есть, понятно, т.е. каждый kubectl должен смотреть на свою машину?
Anton
на живую разве что =)))
Anton
можно множество конфигураций добавить и переключать контекст, например
Anatoliy
не, у меня просто сейчас kubectl на самих мастерах стоят, и в этом случае им имеет смысл смотреть на самих себя
Anatoliy
хотя вообще конечно потом придется их убрать оттуда
Anatoliy
но вот что делать с kubeproxy я понять не могу
Anatoliy
оно мало того что не работает выдавая ошибку malformed, так оно еще и её выдает только если со второй машины прокси делать. если с первой - нифига(
Anatoliy
А несколько etcd может быть? Могу я два сервера использовать каждый как master,node,etcd?
Anatoliy
Просто мастер и ноду каждым сделать получилось, а вот etcd - нет
G72K
@rossmohax хороша ли практика засосывать все в один неймспейс?)
По мне так хорошая, но это чуток религиозный вопрос, так что выбирайте свою веру сами и не верьте попам :)
Maksim
По мне так хорошая, но это чуток религиозный вопрос, так что выбирайте свою веру сами и не верьте попам :)
Не только. Если у тебя разные пользователи, которые не должны пересекаться друг с другом....
Maksim
?
Anatoliy
ну короче не поднимается дэшборд( Не понятно почему, судя по всему там какие то заморочки если надо несколько машин в кластере держать(
Maksim
RBAC же
А как RBAC разграничит сервисы и деплои в одном ns ?
Maksim
Ты либо имеешь право что-то с ними делать либо нет
Anatoliy
Нет там ни каких заморочек
тогда я не понимаю что я сделал не так(
Maksim
Иы же не можешь сказать, что деплой А Юзер А, Деплой Б юзер Б
Maksim
Да
Anatoliy
тогда я видимо сам до конца не разобрался
Maksim
Сама по себе RBAC модель кубера, позволяте выполнять те или иные типы запросов к тем или иным объетам АПИ
Maksim
То есть к Деплою
Maksim
можно указать GET PATCH LICT WATCH DELETE PUT
Maksim
CREATE
Maksim
но именно что к деплою
Maksim
либо в рамках одного ns если ролебиндинг в ns
Maksim
либо в рамках кластера если clusterrolebinding
Maksim
Система Авторизации не разлечает деплои меж собой
Anatoliy
угу, и если тебе надо иметь возможность работать с одним деплоем но не иметь возможности работат ьс другим - то разносить надо именно через НСы?
Dmytro
Привет. Народ, может кто-то встречал такой сервис, который бы бегал по всем images в кубе ( container) и смотрел или есть новые версии? сообщая потом мылом или через ui (без автоматического обновления)
Maksim
Так что вопрос NS это не религиозный, а вопрос RBAC
Anatoliy
ок, тут понятно, спасибо
Maksim
если у тебя ролей 1-2 то они тебе наф не упали
Maksim
Там можно настроить на событие пуша.
Anatoliy
Это именно пуша, я так понимаю человек хочет смотреть то что сам не собирает
Anatoliy
Кстати можете подсказать в чем может быть дело: делаю kubectl proxy, захожу на 127.0.0.1:8001, вижу json. тут всё ок. Перехожу там на /ui и меня перекидывает на http://127.0.0.1:8001/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy/ А дальше уже вообще непотребство в ответе: Error: 'malformed HTTP response "\x15\x03\x01\x00\x02\x02"' Trying to reach: 'http://10.233.64.3:8443/'
Anatoliy
Нет там ни каких заморочек
вот тут выше можете подсказать где я накосчил если не сложно?
G72K
Иы же не можешь сказать, что деплой А Юзер А, Деплой Б юзер Б
Можешь, мы именно так и делаем. На каждый деплой свой пользователь
Maksim
Можешь, мы именно так и делаем. На каждый деплой свой пользователь
Оо где в Rbac можно указать какой именно деплой?
G72K
Нигде, но в куб можно ходить под разными пользователями