
Roquie
28.03.2018
17:52:20
Есть здесь крутые спецы по микросервисам? Есть вопросы по их построению и организации, т.к. у нас команда разошлась во мнениях. Консультация оплачиваемая, но нужен действительно опытный человек (минимум 2 закрытых проекта с такой архитектурой). Писать мне в личку или сюда.

Kirill
29.03.2018
06:45:54
Как правильно тут отметили ранее большинство нашей ̶е̶б̶л̶и̶ настроек связано с тем, что гоняем л̶ы̶с̶о̶г̶о кубер на bare metal.
Поэтому вот нормальная статья как настроить nginx-ингресс для своего кубера.
https://akomljen.com/kubernetes-nginx-ingress-controller/

?
29.03.2018
06:59:18
ага, было

Andor
29.03.2018
07:03:47
А если я захочу хитрые мапы в ингрессе, то мне надо будет кастомный шаблон делать?

Google

Kirill
29.03.2018
07:10:20
По хорошему бы сделать доку со списком всех статей типа ФаКа

Anton
29.03.2018
07:54:01
чей IP будет использоваться в качестве source IP для исходящих запросов из пода наружу кластера?

Andor
29.03.2018
07:54:13
зависит от настроек

Anton
29.03.2018
07:55:09
каких? iptables допустим у kube-proxy

zigmund
29.03.2018
11:22:10

Andor
29.03.2018
11:34:56
смотря как сеть настроена

Anton
29.03.2018
11:38:16

Andor
29.03.2018
11:38:42
если у тебя честный роутинг, то может быть адрес пода
"честный" = "без NAT"

Yuriy
29.03.2018
13:00:13

66271
29.03.2018
13:02:05
в кого запустить ?

Yuriy
29.03.2018
13:03:56
Ну я себе представляю внешний балансирщик который смотрит на ноды и принимает соединения от клиентских подключений и балансит запрос на ноду по состоянию

Anton
29.03.2018
13:06:20
а какое отношение это имеет к исходящему из пода трафику?

Google

Yuriy
29.03.2018
13:07:16

Alexey B
29.03.2018
13:27:30
Кто-нибудь использкет приватный докер репозиторий AWS ECR?

Vasilyev
29.03.2018
13:28:24
в чем вопрос?

Alexey B
29.03.2018
13:31:51
там пароль истекает каждые 12 часов. Какие минимальные роли нужно прописать в IAM для пула-пуша-генерации нового пароля?
даю слишком "жирные" права типа
EC2ContainerRegistryFullAccess
ECS_FullAccess
но куб не может сделать pull
Нода не в AWS EC2

bebebe
29.03.2018
13:40:35
Нода не в AWS EC2
тогда кому вы дете эти "жирные" права?
их нужно навешивать на ноду в aws

Kirill
29.03.2018
13:42:11
Народ, вопрос: есть кубер на собственном железе. Чем его забекапить (волумки не надо)

Pavel
29.03.2018
13:42:12
В остальном все есть в документации

Alexey B
29.03.2018
13:42:41

Pavel
29.03.2018
13:43:44
локально тестировали?
Ну типа каким-нибудь awscli проверить права

Alexey B
29.03.2018
13:57:44
Ну типа каким-нибудь awscli проверить права
Локально тоже не пускает
An error occurred (RepositoryNotFoundException) when calling the ListImages operation: The repository with name 'name' does not exist in the registry with id '234235'
репозиторий и registry существуют
Все разобрался, прогнал на симуляторе и нашел ошибку

Paul
29.03.2018
14:32:13

Stanislav
29.03.2018
14:32:43
А персистентные вольюмы?

Paul
29.03.2018
14:33:45
человек сказал, что волумы бэкапить не нужно

Google

bykva
29.03.2018
15:13:14
В etcd вся информация о кластере хранится?
И ямлы которые мы деплоим
И состояние подов

Vasilyev
29.03.2018
15:19:51
etcdctl вам в руки

Paul
29.03.2018
15:20:47

Yuriy
29.03.2018
15:27:23
Не могу подружить flanneld и CNI при использовании etcd в кластере мастеров, при запуске поднимаются все интерфейсы кроме cni. При инициализации kubeadmin init POD сабнеты не прописсываю так как Flannel берет его заранее из etcd, в etcd загнал сабнет классически etcdctl set /coreos.com/network/config '{ "Network": "10.224.0.0/16","Backend":{"Type":"vxlan"},"SubnetLen": 24 }' . никто не сталкивался с таким ? Либо какие overlay плагины можно еще использовать с кластерным ETCD ?
PS. все подпапки для cni типа /etc/cni/cni.d и /opt/cni созданы, плагины из сорсов CNI пробилдованы. Если ипользовать flannel из пода, тогда cni поднимается но при этом он не видит кластера etcd, хотя ETCD endpoints в конфиг файле при kubeadmin init —config my.yaml указаны.


Alexander
29.03.2018
15:35:16
Всем привет!
подкжаите куда можно посмотреть и копать
Поднял кластер на 3х машинах k8s 1,9,3
сеть между ними calico и 1 масте на нем же крутятся поды
Сейчас сталкнулся с тем, что когда запусткаю service и с мастера мытаешься обратиться curl CLUSTER_IP:PORT то коннект висит
C других но все работает ок

Denis
29.03.2018
15:57:46
можете подсказать,
внутри пода есть необходимость обратится через доменное имя ( имя сервиса ) имя резолвится, но ни один порт недоступен.. с другого пода все получается.Как правильно это реализовать ?

Maksim
29.03.2018
16:01:46
копай сеть
все должно быть доступно

Denis
29.03.2018
16:09:05
clusterIP для сервисов и IP адреса подов должны быть в одной подсети?

Pasha
29.03.2018
16:11:50

Maksim
29.03.2018
16:27:24

Иван
29.03.2018
16:30:45
Всем привет! Научите, как заставить поды смотреть наружу, что бы иметь доступ к ним извне. Получается только с локал хоста
Читал что это делает kube-proxy но у меня он упорно слушает только localhost

Yuriy
29.03.2018
16:32:02
--address=192.168.xxx.xxx
kubectl proxy —address=

Maksim
29.03.2018
16:32:58
это проксирование apiserver на локал машину

Иван
29.03.2018
16:32:58
kubectl proxy насколько я понимаю не продакшн решение, а временно погонять?

Maksim
29.03.2018
16:32:59
-)

Google

Maksim
29.03.2018
16:33:14
что бы иметь доступ к подам
тебе нужно делать сервис NodePort
это самое простое

Иван
29.03.2018
16:33:46
kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
jenkins-service NodePort 10.101.208.69 <none> 8080:32080/TCP 3m
kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 36m
Уже
ss -plnut | grep 32080
tcp LISTEN 0 65000 :::32080 :::* users:(("kube-proxy",pid=2713,fd=8))
И все
С локалхоста хоть обзаходись :)

Maksim
29.03.2018
16:36:26
ну да
а ещё есть kubectp port-proxy

Иван
29.03.2018
16:37:18
Ну он тоже не для продакшен как я понимаю
Судя по доке kube-proxy должен проксировать запросы из вне

Maksim
29.03.2018
16:38:30
kube-proxy проксирует только clusterIP
что бы работать с внешнимизапросами нужен сервис типа NodePort
это самое простое

Иван
29.03.2018
16:39:27
Он уже есть
kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
jenkins-service NodePort 10.101.208.69 <none> 8080:32080/TCP 3m
kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 36m

Maksim
29.03.2018
16:39:43
kubectl get svc
теперь иди на ipnode:32080

Иван
29.03.2018
16:41:00
Ох тыж! Работает

Google

Иван
29.03.2018
16:41:09
Блин, спасибо!))
Я уже всю голову сломал, теперь частично все встало на места

Александр
29.03.2018
16:43:35
может стоит документацию читать? чтобы голову не ломать
можно даже не с официальной начинать, а хотя бы осилить http://kubernetesbyexample.com/

Иван
29.03.2018
16:45:42
Да читал я доку, и как выяснилось все правильно сделал, только вот не проверил что действительно не работает :)