
Alexey B
20.01.2018
12:45:23
:) flannel у меня периодический падал6 как и wavenet.. пришлось тестить calico
А задача посылать реквесты с nginx через upstram на сервис типа app:3000
Как это делать через сеть подов-хз, а у сервисов есть нормальные dns имена

djaarf
20.01.2018
12:57:17

Google

Alexey B
20.01.2018
13:03:27
:) это да
а зачем нужен ingress если можно просто LoadBalancer и nodePort

Konstantin
20.01.2018
13:09:01
Alexey B https://carlosbecker.com/posts/k8s-sandbox-costs/ возможно поэтому

djaarf
20.01.2018
13:09:16

Konstantin
20.01.2018
13:26:06
у меня глупый вопрос: есть kops, helm, вот это всё. я развернул кластер в амазоне, есть сервис с LoadBalancer. А как домен повесить на этот адрес? Ну чтобы не руками в route53, а автоматизированно

Alexey B
20.01.2018
13:31:17
в итоге прочитал несколько статей и по цене (усилия и ресурсы)
и ingress + Nginx Ingress Controller
и LoadBalancer + nginx service
по-моему примерно одинаковы

Sergey
20.01.2018
13:36:24

Konstantin
20.01.2018
13:38:08

Vitaliy
20.01.2018
13:38:15
Есть днс-контроллеры

sherzod
20.01.2018
14:54:24
грёбаный google-cloud
там тупо надо было порт куберсервиса прописать в файрволе
и логи я нашёл, но они так и говорят
обращение на такой-то поддомен, перенаправляю на дефолтный бекенд))) ппц нахрен такой лог нужен

Google

sherzod
20.01.2018
14:55:59
для логов gcloud logging команда есть оказывается
просто жесть какая-то

Max
20.01.2018
15:25:57
Видел тут когото из Зелика. Коллеги, присоединяйтесь https://www.meetup.com/ru-RU/Zelenograd-Dev-Meetup/events/246962387/
Организаторы просили обязательно зарегаться на ивенте, если собираетесь

Виталий
20.01.2018
15:43:11
Ребят, в офф доке пишут
> For etcd, kube-apiserver, kube-controller-manager, and kube-scheduler, we recommend that you run these as containers, so you need an image to be built.
и при этом предлагают мне скачать докер образ hyperkube. Хотя я скачал архив с серверными бинарниками в котором есть каждый бинарник из списка выше + hyperkube.
Так как лучше запускать эти службы: через hyperkube или для каждого скачать свой докер образ или вообще голыми бинарниками запускать?

Ihor
20.01.2018
15:45:26
в подах ранить все компоненты кубера очень удобно имхо. кроме кублета, конечно
главное - заюзать все новые фичи кубера, позволяющие приоретизировать системные поды

Виталий
20.01.2018
15:48:07
Типа kubelet, kube-proxy, docker запускаются как дсистемные демоны, а все остальное - создать файлики подов и скорить kubelet ?
В какой папке рекомендуется хранить манифесты для kubelet?

Ihor
20.01.2018
15:54:23
прокся тоже в поде

Виталий
20.01.2018
15:55:18
но они рекомендуют запускать ее вне контейнера… почему?

Ihor
20.01.2018
15:55:23
проще посмотреть на уже существующие средства для автоматического деплоя и в итоге заюзать их, если ,конечно, цель - не страдать)
они - кто?

Виталий
20.01.2018
15:56:13
цель как раз пострадать и запустить кубернетис руками по пунктикам))
они - офф дока кубернетиса.
You will run docker, kubelet, and kube-proxy outside of a container, the same way you would run any system daemon, so you just need the bare binaries. For etcd, kube-apiserver, kube-controller-manager, and kube-scheduler, we recommend that you run these as containers, so you need an image to be built.
т.е. я не знаю почему, но они пишут что можно или надо запускать kube-proxy вне контейнера, а все остальное в нем


Сергей
20.01.2018
16:00:38
они - офф дока кубернетиса.
You will run docker, kubelet, and kube-proxy outside of a container, the same way you would run any system daemon, so you just need the bare binaries. For etcd, kube-apiserver, kube-controller-manager, and kube-scheduler, we recommend that you run these as containers, so you need an image to be built.
т.е. я не знаю почему, но они пишут что можно или надо запускать kube-proxy вне контейнера, а все остальное в нем
ну а подумать? куб-прокси рулит хостовым фаерволом через дергание айпитэблс, если ранить в контейнере, то придеться ебаться с привилигированным контейнером и всякими капабилити

Виталий
20.01.2018
16:01:55

Сергей
20.01.2018
16:02:12
а доку прочесть?

Виталий
20.01.2018
16:02:16
Спасибо за пояснение.

Сергей
20.01.2018
16:02:34
https://kubernetes.io/docs/reference/generated/kube-proxy/

Google

Сергей
20.01.2018
16:02:45
тут в первом же абзаце из 3 строчек все ясно

Виталий
20.01.2018
16:03:08
Дока очень большая и до этой ссылки я еще не дошел ? спасибо.

Сергей
20.01.2018
16:03:42
https://github.com/kubernetes/community/blob/master/contributors/design-proposals/architecture/architecture.md
хотя бы понимать какой компонент за что отвечает и что ему надо
иначе - это попытка научиться ездить на машине методом тыка с пару десятков сбитых столбов и задавленных людей

Виталий
20.01.2018
16:06:30
к сожалению пока я так и учусь ?
Офф дока с первого раза не дает понимание, приходиться перечитывать и собирать формулировки одного и того же с разных источников.
Вот я прочел про кубе прокси. Я понял что он делает, но я не понял зачем он это делает и какую задачу решает. И вот фиг знает какой теории мне не хватает ?

Сергей
20.01.2018
16:07:16
Synopsis
The Kubernetes network proxy runs on each node. This reflects services as defined in the Kubernetes API on each node and can do simple TCP and UDP stream forwarding or round robin TCP and UDP forwarding across a set of backends. Service cluster IPs and ports are currently found through Docker-links-compatible environment variables specifying ports opened by the service proxy. There is an optional addon that provides cluster DNS for these cluster IPs. The user must create a service with the apiserver API to configure the proxy.

Виталий
20.01.2018
16:10:36

Anton
20.01.2018
17:28:45
Всем ку, есть какие либо реккомендации по количеству мастеров относительно нод?

Сергей
20.01.2018
17:32:34
тут быстрее надо задуматься об etcd
и латентностью дисковой

Nick
20.01.2018
17:42:19

Fike
20.01.2018
17:42:58
(количество, которое вы готовы потерять) + 1
etcd - (количество, которое вы готовы потерять) * 2 + 1

Nick
20.01.2018
17:43:43
Мастер все равно выбирается один насколько я понимаю, остальные нужны только для того чтобы не обосраться

Mikhail
20.01.2018
17:44:42

Anton
20.01.2018
17:44:53

Nick
20.01.2018
17:45:01
Ну да, обычно мастера не скеилятся
Отсюда и ограничение на количество нод

Google

Nick
20.01.2018
17:45:59
Но это не точно

Mikhail
20.01.2018
17:46:02
Как я помню 5к нод в 1.8

Anton
20.01.2018
17:46:52
На больших кластерах сплит-брейна не будет?

Mikhail
20.01.2018
17:47:57
Зависит от количества etcd серверов :)

Anton
20.01.2018
17:50:01
А сколько безопасно?) 3-5?

Mikhail
20.01.2018
17:50:26
Начните с 3

Fike
20.01.2018
17:50:40

Admin
ERROR: S client not available

Anton
20.01.2018
17:51:33
А федерацию кто-нибудь заводил?
В каждой сети свой

Fike
20.01.2018
17:54:09
а сплит-брейн здесь где?

Nick
20.01.2018
17:56:40
потому что кластер будет работать и без мастера
вопрос только как долго)

Anton
20.01.2018
17:57:33
а потом востанови сеть

Fike
20.01.2018
18:03:22
пока что это идет по пути уранового лома

Сергей
20.01.2018
18:08:13
сплитбрейн - это вообще хуйовая ситуация для любого кластерного решения

Google

Виталий
20.01.2018
18:15:52
Ребят, застрял на сертификатах
CA_CERT
put in on node where apiserver runs, for example in /srv/kubernetes/ca.crt.
MASTER_CERT
signed by CA_CERT
put in on node where apiserver runs, for example in /srv/kubernetes/server.crt
MASTER_KEY
put in on node where apiserver runs, for example in /srv/kubernetes/server.key
KUBELET_CERT
optional
KUBELET_KEY
optional
ничерта не понимаю и не могу найти где сказано для чего какой сертификат и самое главное где их взять? Можно ли тут использовать Let`s Encrypt как-то и что если пока для АПИ нет домена, а обращения только по IP?

Anton
20.01.2018
18:16:39

Fike
20.01.2018
18:16:52
Что?

Anton
20.01.2018
18:28:03
Что?
Почитай что такое сплит-брейн, при разделении кластера рано или поздно состояние раздельных частей будет отличатся

Fike
20.01.2018
18:28:43
в ответ предлагаю почитать про эффект даннига-крюгера и мои предыдущие ответы
и еще спеку рафта

Виталий
20.01.2018
18:38:29
Нашел доку https://rootsquash.com/2016/05/10/securing-the-kubernetes-api/ но я не догоняю что делать если у меня нету домена для мастера.
Подскажите что делать?

Dmitry
20.01.2018
19:18:40
А вот это вообще юзают? Или etcd может решить все задачи?https://github.com/thesandlord/kubernetes-pod-ip-finder
нужно получить список ip по лейблам

Сергей
20.01.2018
19:19:55
Так есть же днс запись для подов
По ней и получить айпи

Dmitry
20.01.2018
19:22:24
Нужен список всех хостов в под лейблом
как правильно его получить из пода? (будь то хост или айпи)

Сергей
20.01.2018
19:25:12
Ну лейблы есть?
По лейблу получить весь список подов
Дальше по днс записи для пода получить айпи

Dmitry
20.01.2018
19:25:57
я в теории это понимаю. но как мне получить это и передать в переменную окружения?

Сергей
20.01.2018
19:26:09
Что передать и куда?