kay
хотя в настройках использую keepalive.
kay
ServerAliveInterval 30
kay
TCPKeepAlive yes
G72K
что еще за ssh? вы же про port forward
G72K
незнаю, смотрите по tcpdump кто шлет FIN/RST и ищите там
Роман
Ребята, что я делаю не так? Поднимаю кластер при помощи kubeadm. Запускаю тестовое приложение apache-hostname (которое слушает порт 80), делаю expose с type=LoadBalancer. В итоге внешний адрес всё время в состоянии pending. Никак мне кубернетес не даётся...
Denis
Привет! А не подскажите требования к мастер нодам k8s? Допустим у меня 3 мастера и 3 воркера.
G72K
всё что угодно )
Роман
type=LoadBalancer из коробки вроде работает только с облаками(AWS, GCE)
А как быть в таком случае? Как мне извне доступ получить к приложению?
Ivan
А как быть в таком случае? Как мне извне доступ получить к приложению?
В проде с кубернетесом не работал(кто-то может что-то более дельное подсказать), но для своих тестовых целей использовал https://kubernetes.io/docs/concepts/services-networking/service/#external-ips
G72K
NodePort или ExternalIP
Роман
NodePort или ExternalIP
NodePort подразумевает, что я установлю, например, nginx, как реверс прокси и буду проксировать на ноды запросы? Тогда придётся руками каждый раз править его конфиг, когда ногу добавлять буду.
Konstantin
А как быть в таком случае? Как мне извне доступ получить к приложению?
Тогда нужен Ingress Controller. Он есть например на базе Nginx. Дока тут - https://kubernetes.io/docs/concepts/services-networking/ingress/
Роман
Тогда нужен Ingress Controller. Он есть например на базе Nginx. Дока тут - https://kubernetes.io/docs/concepts/services-networking/ingress/
nginx-ingress-controller - это приложение, которое надо запускать на хост-системе, или это такой же докер-контейнер, который запускается в кубере?
Konstantin
nginx-ingress-controller - это приложение, которое надо запускать на хост-системе, или это такой же докер-контейнер, который запускается в кубере?
Да, это просто сервис. Типа прокси. Запускается на всех нодах. ingress умеет по определенным правилам пониматьдля какого сервиса предназначается конкретный запрос. Правила можно задавать по доменам или по путям. В реальности придется ставить перед кластером kubernetes еще и балансер какой-то (для отказоустоичивости, на случай падения одной из нод с ingress)
Konstantin
Вот пример как конфигрурировать роутинг по путям - https://kubernetes.io/docs/concepts/services-networking/ingress/#simple-fanout
Konstantin
А вот так по доменам - https://kubernetes.io/docs/concepts/services-networking/ingress/#name-based-virtual-hosting
Denis
Разбираюсь тут с настройкой kube-proxy, и во всех мануалах указывается только один --master, реально же мастеров хочется минимум 3, как быть?
Denis
а проверяли? он пробует следующий?
Ivan
Разбираюсь тут с настройкой kube-proxy, и во всех мануалах указывается только один --master, реально же мастеров хочется минимум 3, как быть?
мы пока пошли от идеи, что на каждой ноде с мастером, куби прокси смотрит на своего мастера. И если не доступен мастер, то скорее всего с нодой что то не так. Кто вообще как делает в проде? у нас пока тестовый кластер.
Vitaliy
мы, извините, так делаем
Ivan
как мастеров обновлять собрались? :)
пока не думали в эту сторону =)
Denis
мы пока пошли от идеи, что на каждой ноде с мастером, куби прокси смотрит на своего мастера. И если не доступен мастер, то скорее всего с нодой что то не так. Кто вообще как делает в проде? у нас пока тестовый кластер.
В этом мануале (https://kubernetes.io/docs/getting-started-guides/scratch/) говорится что kube-proxy должен быть запущен на всех воркерах. И что на нодах с мастером он не нужен.
Denis
Есть тикет https://github.com/kubernetes/kubernetes/issues/18174 Вот тут чувак пишет что DNS не сработал Another technique that I have tried (which failed) is to use DNS round robining - "kubemaster -> IP1, IP2, IP3". This does not work - I think the kubelet/go/os is caching the resolution and keeps re-trying the same master. So DNS round robin may be useful for load balancing but is no good for HA failover. Хотя другой пишет (https://github.com/kubernetes/kubernetes/issues/18174#issuecomment-232850783) что вроде все ок, и другой уже даже скрипт написал для мониторинга мастеров и обновления DNS записей (https://github.com/kubernetes/kubernetes/issues/18174#issuecomment-232874344)
Denis
Тут ведь полюбому есть кто-то, кто эту проблему решал и провоидл тесты с вырубанием мастеров?
Denis
пробует. kubelet тоже
спасибо, тогда пока делаю так
Anonymous
тут кто-то использовал kafka+spark в kubernetes из helm репы? брат жив?
Igor
https://www.cncf.io/blog/2017/06/15/sign-kubernetes-beta-certification-exam/
Igor
сертификацию завезли
Anonymous
а как к нему подготовиться? 😱
Igor
https://github.com/cncf/curriculum/blob/master/certified_kubernetes_administrator_exam_V0.9.pdf
Anonymous
сертификация к софту, который из беты не вылезает
Anonymous
в Питере встреч, митапов по k8s не намечается???
Maksim
Бета- софт бета-сертификат бета-админы....
Maksim
Прям детская считалочка
Logan
в Питере встреч, митапов по k8s не намечается???
пивной митап все собрать не можем
Anonymous
это печально
Anonymous
Один раз собирали, правда я не помню чем закончилось ;)
Logan
решили собраться через месяцок. Вот, до сих пор собираемся
Anonymous
А скиньте ссылку на канал плиз питерский я на телефоне ссылку не могу найти )
Etki
пинганул тебя в чате, там нет прямой ссылки
Anonymous
Anonymous
@kubernetes_spb
Anonymous
Спасибо
𝕍ℤ
ребята, небольшой офф, раскидайте, почему не стоит пользоваться проксмоксом взамен куба
Artem
Почему не стоит пить пиво вместо водки?
𝕍ℤ
пока расплывчатые метафоры)
No
Зачем мне мало, когда есть мачалка
No
Мыло
𝕍ℤ
скажем, у меня не 100500 нод, а всего 1-3. и колличество сервисов не больше 10. откинем также перспективы личностного роста, чисто решение задач бизнеса
No
Проксмокс для инфраструктуры, куб для сервисов
No
Разное назначение
Roman
ну вот, остановил поток безумия(
𝕍ℤ
ещё уточняю вопрос) при вышеозвученных условиях стоит ли выбирать куб, учитывая околонулевой уровень и там и там. ну в докере более менее
𝕍ℤ
и если стоит, буду благодарен за аргументацию
Artem
Ты там не какой нибудь почтовик и телефонию под сервисами подразумеваешь?)
Artem
Уровни абстракции: сервер > проксмокс / ос > кубер > докер
Zon
ещё уточняю вопрос) при вышеозвученных условиях стоит ли выбирать куб, учитывая околонулевой уровень и там и там. ну в докере более менее
Проксмокс - быстро, грязно и хуже поддерживать потом. Кубер - больше головняка сначало, но лучше потом. Коммунити проксмокса и документация хуже, но запустить на чистом железе проще
Zon
Да нормально куб на железе едет
Я не сказал что плохо, просто проксмокс - вообще думать не нужно - вставил исошку и next,next,next
Zon
Хотя может тектоник(?) уже тоже так..
Михаил
Или может опеншифт ?)
Там точно далее далее готово