@kubernetes_ru

Страница 391 из 958
Pavel
19.01.2018
16:57:17
а почему?
Потому что при мигании сети keepalived себя бывает очень странно ведет. Например убирает адрес с одного инстанса и никуда больше не добавляет. Плюс для реального переезда адреса нужно некоторое количество времени, а если инстанс не просто выключился, а мигает сеть, много раз, то также возможна ситуация когда реально адреса нет нигде. Если что то случится с балансировщиком установленным на каждой ноде, то будет зааффекчена только работа этой ноды с апи сервером, а не весь кластер.

Oles P.
19.01.2018
16:57:58
а почему?
Поставь, узнаешь ;)))

Mikhail
19.01.2018
17:00:48
Поставь, узнаешь ;)))
ну поставлю надо будет )

Google
Виталий
19.01.2018
20:10:41
Вот тут можно посмотреть реализацию. Только нужно по ансиблу полазить. Из опыта этот вариант лучше чем вррп на мастерах
ох, спасибо)) а то я нарыл вот такое https://tecadmin.net/ip-failover-setup-using-keepalived-on-centos-redhat/# вроде выглядит интересно

это вариант когда на каждой ноде стоит nginx и баллансит именно обращение с этой ноды на мастеры?

Виталий
19.01.2018
20:43:47
Ага
слушай, а какую задачу решают эти штуки Calico Flannel Open vSwitch (OVS) Romana Weave а то читаю и не догоняю ?

а еще не понимаю зачем kube-proxy на мастер нодах. Че он проксирует и откуда куда?

Mikhail
19.01.2018
21:01:38
слушай, а какую задачу решают эти штуки Calico Flannel Open vSwitch (OVS) Romana Weave а то читаю и не догоняю ?
Сеть организуют для подов. Каждый под получает свой IP и к нему могут достучаться другие если надо.

Виталий
19.01.2018
21:03:44
У меня не используется на мастерах.
так а зачем он нужен в принципе?

Mikhail
19.01.2018
21:06:06
так а зачем он нужен в принципе?
На нодах добавляет правила в iptables чтобы кластерные ip были доступны (нат делает)

Например ip kube-dns

Виталий
19.01.2018
21:07:10
ох, все равно не понял)) ладно, потом догоню уже

https://kubernetes.io/docs/getting-started-guides/scratch/#apiserver-pod-template

зачем тут описываются yaml подов для аписервера, шедулера и контроллер менеджера?

Google
Виталий
19.01.2018
21:08:43
как можно запустить эти компоненты в кластере (в подах) если у меня еще кластера нет?

Виталий
19.01.2018
21:12:51
Да
круто)) а то на этой странице столько текста, что все так страшно выглядит. Но в глубине души я верю что там на 20 минут дела.

Mikhail
19.01.2018
21:13:48
Конечно! Сложно только первый десяток раз! ;)

Виталий
19.01.2018
21:14:50
Конечно! Сложно только первый десяток раз! ;)
я буду первый раз собирать ? чет страшновато. Завтра тут будешь?))

Mikhail
19.01.2018
21:15:29
Наверное :)

Путь такой: Etcd, network, мастер, нода.

(В моем случае) :)

Виталий
19.01.2018
21:16:44
а что значит network ? че конкретно надо настроить? я думал что flannel этот запускается уже в кластере

Mikhail
19.01.2018
21:18:02
Наверняка и так можно. Я сделал его до кластера :)

djaarf
19.01.2018
21:18:47
как можно запустить эти компоненты в кластере (в подах) если у меня еще кластера нет?
kubelet запускает поды, описания для которых лежат в /etc/kubernetes/manifests/ для этого не нужен поднятый кластер

djaarf
19.01.2018
21:23:16
«kubernetes hard way» почти тот же «kubernetes from scratch», рекомендую посмотреть

Виталий
19.01.2018
21:23:59
а можно ссылочку?

djaarf
19.01.2018
21:24:09
в гугле забей )))

Виталий
19.01.2018
21:25:15
там много разных вариантов

https://medium.com/@zwischenzugs/learn-kubernetes-the-hard-way-the-easy-and-cheap-way-6f82b665ccd9

djaarf
19.01.2018
21:25:30
https://github.com/kelseyhightower/kubernetes-the-hard-way

Google
djaarf
19.01.2018
21:26:03
только тут cri-containerd вместо докера

но бутстраппинг мастер-компонентов, почти такой же

Виталий
19.01.2018
21:26:51
ок, посмотрю) спасибо.

Paul
19.01.2018
21:40:30
а что значит network ? че конкретно надо настроить? я думал что flannel этот запускается уже в кластере
он запускается на каждом воркере (именно воркере) и нужен для того, чтобы поды могли общаться друг с другом по сети прозрачно

Пенкуздуй
20.01.2018
05:11:29
Уважаемые, подскажите в каком направлении смотреть, тема такая: физическое разделение базы данных. Я так понял это разделение между пользователем, как это работает? не могу найти в интернете.

Антон
20.01.2018
08:06:13
Коллеги, где обычно принято держать helm чарты? Вместе с приложением или в отдельной репе?

M
20.01.2018
08:22:25
Кто настраивал доступ для пользователей к дашу с правами только на определенные неймспейсы?

Как это сделать проще? Не заставлять же юзеров каждый раз копировать трехстрочный токен или загружать kubeconfig

Max
20.01.2018
08:26:39
Коллеги, где обычно принято держать helm чарты? Вместе с приложением или в отдельной репе?
Хз как принято, но мы пришли к тому что хелмы инфраструктурных сервисов в одной репе. Хелмы приложений в своих репах приложений.

Paul
20.01.2018
09:26:28
M
20.01.2018
09:27:35
sherzod
20.01.2018
09:42:33
Ребят, подскажите. Фигня какая-то с gcloud-ом. Не получается смапить никак поддомен на отдельный сервис. Все время редиректит на default-backend. Можно ли где нибудь посмотреть лог событий матчинга?

sherzod
20.01.2018
10:01:17
в логах пода ингресса
о, интересно.. спасибо а как на него выйти? в get pods только мои не служебные поды в describe ingress вроде на под нет ссылок

66271
20.01.2018
10:02:18
он скорее всего в служебном неймспейсе, kube-system например

sherzod
20.01.2018
10:07:52
там его тоже не вижу.. мне кажется в glcoud используется какой-то внешний по отношению к куберу балансер

Sergey
20.01.2018
10:11:01
ясно дело что внешний, но обычно с внешнего балансера направляют трафик на ингресс контролер, а в нем уже можно любой мапинг сделать.

sherzod
20.01.2018
10:13:33
ну вот ingress у меня есть kubectl get ingress даёт мне список я делаю describe нужного ingress там никаких ссылок на pod нет. так и должно быть?

когда ставил minkube там действительно был контейнер с nginx-ом, а здесь что-то его не вижу, ни в каких неймспейсах

Google
Sergey
20.01.2018
10:18:49
смотрите другие сущености, не только ингрес. ing,svc,ds,deploy,po

sherzod
20.01.2018
10:27:53
смотрите другие сущености, не только ингрес. ing,svc,ds,deploy,po
вижу dns-* поды, видимо это и есть сам игресс, то есть набор правил. попробую посмотреть там логи

какой ингрес вы используете?
не понял вопрос.. вот я пытаюсь понять что он из себя представляет) kubectl get ingress my-ingress apiVersion: extensions/v1beta1 kind: Ingress metadata: spec: rules:

я использую google-cloud. У него там какие-то свои сущности поверх kubernetes что меня, как новичка запутывает))

Admin
ERROR: S client not available

djaarf
20.01.2018
10:30:35
гугловый ингресс контоллер не доступен напрямую

sherzod
20.01.2018
10:31:25
Если попытаться сузить задачку, в веб-интерфейсе есть пункт сетевые сервисы, там есть балансировщик нагрузки, у него какой-то гугловый ИД. Мне нужно получить доступ к логам вот этого балансировщика нагрузки

djaarf
20.01.2018
10:31:53
вроде в describe ingress-а он должен вывести привязался он к loadbalancer-у или нет

Alik
20.01.2018
10:33:39
не понял вопрос.. вот я пытаюсь понять что он из себя представляет) kubectl get ingress my-ingress apiVersion: extensions/v1beta1 kind: Ingress metadata: spec: rules:
в gcloud по умолчанию используется gce-ingress, он сейчас в стадии бета. я тоже пробовал начать с него, и получил кучу проблем. в том числе похожую на вашу. все они решились переходом на nginx-ingress

sherzod
20.01.2018
10:37:33
понял, спасибо, ребят, да вообще в планах есть поставить его

Sergey
20.01.2018
10:37:38
с чего это вдруг по умолчанию? по умолчанию там никакого ингреса нет

djaarf
20.01.2018
10:39:50
Alexey B
20.01.2018
10:42:18
ГАйз, контейнеры в сети общаются по айпишникам вида 192.168.217.1 а dns резолвит имена на 10.100.1.1 Как пофиксить?

Sergey
20.01.2018
10:43:18
ингресса нет, а ингресс контроллер есть
не знаю что вы вкладывает в этот термин, но ничего связаного с ингресом в GKE кластере по умолчанию нет. Далее сам что надо то и деплоишь. Возможно, на этапе создания кластера можно кастомно что-то задать, не вдавался в детали.

sherzod
20.01.2018
10:44:09
возможно имеют в виду его тип (контроллера) потому что при создании балансировщика нагрузки через интерфейс он выбирать ничего не предлагает

Ihor
20.01.2018
10:45:40
ингресс контроллер в GKE создается по умолчанию. как раз при создании кластера его можно отключать, если есть желание юзать свой

sherzod
20.01.2018
10:46:46
а как его логи посмотреть кто-нить знает?))

Mikhail
20.01.2018
10:49:38
ГАйз, контейнеры в сети общаются по айпишникам вида 192.168.217.1 а dns резолвит имена на 10.100.1.1 Как пофиксить?
Тут нечего фиксить. На хост машине через нат днс пробрасывается на нужный ip

Google
djaarf
20.01.2018
10:49:41
а как его логи посмотреть кто-нить знает?))
судя по всему никак, или смотри describe ingress неработающих правил или смотри статус в «Discovery & load balancing» gke

Andrey
20.01.2018
10:49:47
Packt раздает бесплатно сутки Kubernetes Cookbook. https://www.packtpub.com/packt/offers/free-learning Не знаю насколько хорошая не читал, но мож кому полезной будет

Vadim
20.01.2018
11:49:38
Всем привет. Не сильно разбираюсь в k8s, поставил deis (на своих железных серверах с 1 внешним ip на каждом сервере), когда деплою веб приложение не могу к нему достучаться по 80 порту. deis сам деплоит router я так понимаю там nginx который внутрь должен проксировать запросы. Меня смущает - external-ip - pending: Так и должно быть ? kubectl get svc --namespace=deis | grep LoadBalancer NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE deis-router LoadBalancer 10.110.160.169 <pending> 80:30219/TCP,443:32497/TCP,2222:32246/TCP,9090:30516/TCP 2d При этом по порту 30219 сайт открывается. Куда посмотреть ?

djaarf
20.01.2018
12:10:56
посмотреть провайдит ли deis LoadBalancer для bare metall инсталляции kubernetes или нет

Vadim
20.01.2018
12:16:29
смотрю тут https://github.com/deis/router#front-facing-load-balancer Front-facing load balancer Depending on what distribution of Kubernetes you use and where you host it, installation of the router may automatically include an external (to Kubernetes) load balancer or similar mechanism for routing inbound traffic from beyond the cluster into the cluster to the router(s). For example, kube-aws and Google Container Engine both do this. On some other platforms-- Vagrant or bare metal, for instance-- this must either be accomplished manually or does not apply at all. Получается мне надо поставить что-то типа ingress-nginx перед этим роутером ? Или как лучше ?

djaarf
20.01.2018
12:19:14
или ingress-controller или поставить балансировщик например nginx, который будет апстримить nodeport-ы или еще как-нибудь

Vadim
20.01.2018
12:20:09
спасибо, сейчас почитаю

djaarf
20.01.2018
12:24:54
вообще было бы интересно услышать отзывы корифеев ? , кто как предпочитает заворачивать трафик в k8s bare metall на продакшене

Alexey B
20.01.2018
12:32:23
Тут нечего фиксить. На хост машине через нат днс пробрасывается на нужный ip
не совсем понял, как это сделать И это не плохо, что для куба нужно какие-то изменения на хосте делать?

djaarf
20.01.2018
12:38:52
ГАйз, контейнеры в сети общаются по айпишникам вида 192.168.217.1 а dns резолвит имена на 10.100.1.1 Как пофиксить?
у нод свои собственные адреса у подов свои собственные подсети у сервисов своя собственная виртуальная сеть непонятно, что ты хочешь пофиксить?

Alexey B
20.01.2018
12:41:55
мне нужно чтобы пода каким-то образом видела подсеть сервисов Те пода front-fwe324r234-wrqe могла ходить на сервис app, а не только на поды типа app-fesfwe-fewr

djaarf
20.01.2018
12:43:17
насколько я знаю, если не применены сетевые политики, то внутри кластера все доступно друг другу

ну это конечно зависит от способа инсталяции

Alexey B
20.01.2018
12:44:24
в Calico по умолчанию почему-то не ходит

Страница 391 из 958