@kubernetes_ru

Страница 497 из 958
Roquie
28.03.2018
17:52:20
Есть здесь крутые спецы по микросервисам? Есть вопросы по их построению и организации, т.к. у нас команда разошлась во мнениях. Консультация оплачиваемая, но нужен действительно опытный человек (минимум 2 закрытых проекта с такой архитектурой). Писать мне в личку или сюда.

Kirill
29.03.2018
06:45:54
Как правильно тут отметили ранее большинство нашей ̶е̶б̶л̶и̶ настроек связано с тем, что гоняем л̶ы̶с̶о̶г̶о кубер на bare metal. Поэтому вот нормальная статья как настроить nginx-ингресс для своего кубера. https://akomljen.com/kubernetes-nginx-ingress-controller/

?
29.03.2018
06:59:18
ага, было

Andor
29.03.2018
07:03:47
А если я захочу хитрые мапы в ингрессе, то мне надо будет кастомный шаблон делать?

Google
Kirill
29.03.2018
07:10:20
По хорошему бы сделать доку со списком всех статей типа ФаКа

Anton
29.03.2018
07:54:01
чей IP будет использоваться в качестве source IP для исходящих запросов из пода наружу кластера?

Andor
29.03.2018
07:54:13
зависит от настроек

Anton
29.03.2018
07:55:09
каких? iptables допустим у kube-proxy

Andor
29.03.2018
11:34:56
смотря как сеть настроена

Anton
29.03.2018
11:38:16
смотря как сеть настроена
и какие ещё могут быть варианты, тогда?

Andor
29.03.2018
11:38:42
если у тебя честный роутинг, то может быть адрес пода

"честный" = "без NAT"

Yuriy
29.03.2018
13:00:13
Айпишник ноды, где запущен конкретный под.
Но по идее же можно запустить NLB ???

66271
29.03.2018
13:02:05
в кого запустить ?

Yuriy
29.03.2018
13:03:56
Ну я себе представляю внешний балансирщик который смотрит на ноды и принимает соединения от клиентских подключений и балансит запрос на ноду по состоянию

Anton
29.03.2018
13:06:20
а какое отношение это имеет к исходящему из пода трафику?

Google
Yuriy
29.03.2018
13:07:16
а какое отношение это имеет к исходящему из пода трафику?
исходящих запросов. Уже вижу. Поспешил. Мозг с утра не завелся еще, надо кофе , больше кофе.

Alexey B
29.03.2018
13:27:30
Кто-нибудь использкет приватный докер репозиторий AWS ECR?

Vasilyev
29.03.2018
13:28:24
в чем вопрос?

Alexey B
29.03.2018
13:31:51
там пароль истекает каждые 12 часов. Какие минимальные роли нужно прописать в IAM для пула-пуша-генерации нового пароля?

даю слишком "жирные" права типа EC2ContainerRegistryFullAccess ECS_FullAccess но куб не может сделать pull

Нода не в AWS EC2

bebebe
29.03.2018
13:40:35
Нода не в AWS EC2
тогда кому вы дете эти "жирные" права? их нужно навешивать на ноду в aws

Kirill
29.03.2018
13:42:11
Народ, вопрос: есть кубер на собственном железе. Чем его забекапить (волумки не надо)

Pavel
29.03.2018
13:42:12
В остальном все есть в документации

Alexey B
29.03.2018
13:42:41
В остальном все есть в документации
с паролем все ок, не дает сделать pull.

Pavel
29.03.2018
13:43:44
локально тестировали?

Ну типа каким-нибудь awscli проверить права

Alexey B
29.03.2018
13:57:44
Ну типа каким-нибудь awscli проверить права
Локально тоже не пускает An error occurred (RepositoryNotFoundException) when calling the ListImages operation: The repository with name 'name' does not exist in the registry with id '234235'

репозиторий и registry существуют

Все разобрался, прогнал на симуляторе и нашел ошибку

Paul
29.03.2018
14:32:13
Народ, вопрос: есть кубер на собственном железе. Чем его забекапить (волумки не надо)
бэкапьте только etcd api-server-а, все остальное бэкапить нет смысла

Stanislav
29.03.2018
14:32:43
А персистентные вольюмы?

Paul
29.03.2018
14:33:45
человек сказал, что волумы бэкапить не нужно

Google
bykva
29.03.2018
15:13:14
В etcd вся информация о кластере хранится?

И ямлы которые мы деплоим

И состояние подов

Vasilyev
29.03.2018
15:19:51
etcdctl вам в руки

Paul
29.03.2018
15:20:47
Yuriy
29.03.2018
15:27:23
Не могу подружить flanneld и CNI при использовании etcd в кластере мастеров, при запуске поднимаются все интерфейсы кроме cni. При инициализации kubeadmin init POD сабнеты не прописсываю так как Flannel берет его заранее из etcd, в etcd загнал сабнет классически etcdctl set /coreos.com/network/config '{ "Network": "10.224.0.0/16","Backend":{"Type":"vxlan"},"SubnetLen": 24 }' . никто не сталкивался с таким ? Либо какие overlay плагины можно еще использовать с кластерным ETCD ? PS. все подпапки для cni типа /etc/cni/cni.d и /opt/cni созданы, плагины из сорсов CNI пробилдованы. Если ипользовать flannel из пода, тогда cni поднимается но при этом он не видит кластера etcd, хотя ETCD endpoints в конфиг файле при kubeadmin init —config my.yaml указаны.

Alexander
29.03.2018
15:35:16
Всем привет! подкжаите куда можно посмотреть и копать Поднял кластер на 3х машинах k8s 1,9,3 сеть между ними calico и 1 масте на нем же крутятся поды Сейчас сталкнулся с тем, что когда запусткаю service и с мастера мытаешься обратиться curl CLUSTER_IP:PORT то коннект висит C других но все работает ок

Denis
29.03.2018
15:57:46
можете подсказать, внутри пода есть необходимость обратится через доменное имя ( имя сервиса ) имя резолвится, но ни один порт недоступен.. с другого пода все получается.Как правильно это реализовать ?

Maksim
29.03.2018
16:01:46
копай сеть

все должно быть доступно

Denis
29.03.2018
16:09:05
clusterIP для сервисов и IP адреса подов должны быть в одной подсети?

Pasha
29.03.2018
16:11:50
clusterIP для сервисов и IP адреса подов должны быть в одной подсети?
половина сетки отдана под поды, половина сетки под сервисы

Иван
29.03.2018
16:30:45
Всем привет! Научите, как заставить поды смотреть наружу, что бы иметь доступ к ним извне. Получается только с локал хоста

Читал что это делает kube-proxy но у меня он упорно слушает только localhost

Yuriy
29.03.2018
16:32:02
--address=192.168.xxx.xxx

kubectl proxy —address=

Maksim
29.03.2018
16:32:58
это проксирование apiserver на локал машину

Иван
29.03.2018
16:32:58
kubectl proxy насколько я понимаю не продакшн решение, а временно погонять?

Maksim
29.03.2018
16:32:59
-)

Google
Maksim
29.03.2018
16:33:14
что бы иметь доступ к подам

тебе нужно делать сервис NodePort

это самое простое

Иван
29.03.2018
16:33:46
kubectl get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE jenkins-service NodePort 10.101.208.69 <none> 8080:32080/TCP 3m kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 36m

Уже

ss -plnut | grep 32080 tcp LISTEN 0 65000 :::32080 :::* users:(("kube-proxy",pid=2713,fd=8))

И все

С локалхоста хоть обзаходись :)

Maksim
29.03.2018
16:36:26
ну да

а ещё есть kubectp port-proxy

Иван
29.03.2018
16:37:18
Ну он тоже не для продакшен как я понимаю

Судя по доке kube-proxy должен проксировать запросы из вне

Maksim
29.03.2018
16:38:30
kube-proxy проксирует только clusterIP

что бы работать с внешнимизапросами нужен сервис типа NodePort

это самое простое

Иван
29.03.2018
16:39:27
Он уже есть

kubectl get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE jenkins-service NodePort 10.101.208.69 <none> 8080:32080/TCP 3m kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 36m

Maksim
29.03.2018
16:39:43
kubectl get svc

теперь иди на ipnode:32080

Иван
29.03.2018
16:41:00
Ох тыж! Работает

Google
Иван
29.03.2018
16:41:09
Блин, спасибо!))

Я уже всю голову сломал, теперь частично все встало на места

Александр
29.03.2018
16:43:35
может стоит документацию читать? чтобы голову не ломать можно даже не с официальной начинать, а хотя бы осилить http://kubernetesbyexample.com/

Иван
29.03.2018
16:45:42
Да читал я доку, и как выяснилось все правильно сделал, только вот не проверил что действительно не работает :)

Страница 497 из 958