@kubernetes_ru

Страница 274 из 958
Maksim
20.09.2017
10:05:32
дефолтовый от prometheus

Nikita
20.09.2017
12:42:02
Привет

Гугловый вариант юзабелен?

Есть к нему конкретные вопросы?

Google
Maksim
20.09.2017
12:42:56
А есть не гугловый вариант?)

Nikita
20.09.2017
12:44:06
Я про google container

В части gcp

Maksim
20.09.2017
12:46:53
почему нет?

учитывая что до 1.7 кубер делался по сути гуглом

Artemiy
20.09.2017
13:01:31
привет, чем деплоить в этот ваш кубернейтес, чтоб из CI

bebebe
20.09.2017
13:07:59
модный ответ: спиннакером, но есть нюансы

Let Eat
20.09.2017
13:09:04
модный ответ: спиннакером, но есть нюансы
как он в жизни, а не на картинках?

kvaps
20.09.2017
13:10:38
народ а кто в курсе почему входящие пакеты на externalIP могут отбрасываться как martian source? - уже всю голову сломал

bebebe
20.09.2017
13:10:41
как он в жизни, а не на картинках?
там нужно понимать саму модель разработки инженеры нетфликса пилют его как бы опенсорс, но пилят его специфично для внутренних нужд самого нетфликса, а от комьюнити - велком то контрибьют отсюда например странная особенность, что архитектурно spinnaker нельзя поставить без уже имеющегося облака

и так со многими их продуктами

Let Eat
20.09.2017
13:11:17
ну так в куб же его можно поставить? чем не облако?

bebebe
20.09.2017
13:11:37
да, но если у тебя нет куба - нет мультиков

Google
kvaps
20.09.2017
13:12:27
причем проблема происходит только тогда, когда я обращаюсь к kubeproxy: PREROUTING: IN=br0.100 OUT= MAC=fa:a3:18:af:cd:c7:44:31:92:73:c8:76:08:00 SRC=1.2.3.4 DST=5.6.7.8 LEN=60 TOS=0x00 PREC=0x00 TTL=61 ID=19612 DF PROTO=TCP SPT=28543 DPT=80 WINDOW=29200 RES=0x00 SYN URGP=0 IPv4: martian source 10.244.79.2 from 1.2.3.4, on dev br0.100 ll header: 00000000: fa a3 18 af cd c7 44 31 92 73 c8 76 08 00 ......D1.s.v..где: 1.2.3.4 - это мой внешний ip 5.6.7.8 - это внешний ip одной из нод Kubernetes'а висит на br.100 10.244.79.2 - под

bebebe
20.09.2017
13:13:11
собственно ему нужно подсунуть вольюмы и инслать чартом stable/spinnaker который тянет за собой jenkins (они с декабря выпилили возможность запускать какие-либо команды, типа тот же hello world) и запускают только через jenkins и еще тянет minio,redis

kvaps
20.09.2017
13:13:41
В INPUT они даже не попадают

Let Eat
20.09.2017
13:15:18
во дела

Anton
20.09.2017
13:27:41
есть вопрос по nginx-ingress. не понимаю зачем на 443 порту в контейнере слушает nginx-ingress-controller, а не сам nginx?

bebebe
20.09.2017
13:35:27
@amaksimov ping

Anton
20.09.2017
13:46:58
LISTEN 0 0 :::443 :::* users:(("nginx-ingress-c",pid=7,fd=3))

Let Eat
20.09.2017
13:47:20
ну делааа

kvaps
20.09.2017
13:58:59
netstat -natp | grep kube tcp 0 0 1.2.3.4:80 0.0.0.0:* LISTEN 4875/kube-proxy- а это значит что kube-proxy работает в userspace mode?

или не значит?

Mikhail
20.09.2017
14:02:15
кубе-прокси работает в userspace в любом случае. Как он роутит - зависит от параметров запуска.

ps auxwwww | grep kube-proxy

Anton
20.09.2017
14:04:21
LISTEN 0 0 :::443 :::* users:(("nginx-ingress-c",pid=7,fd=3))
гуглю, похоже что я зря гоню, он должен по умолчанию запускаться без ssl passthrough

kvaps
20.09.2017
14:04:41
/usr/local/bin/kube-proxy --kubeconfig=/var/lib/kube-proxy/kubeconfig.conf --cluster-cidr=10.244.0.0/16cat /var/lib/kube-proxy/kubeconfig.confapiVersion: v1 kind: Config clusters: - cluster: certificate-authority: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt server: https://10.36.11.20:6443 name: default contexts: - context: cluster: default namespace: default user: default name: default current-context: default users: - name: default user: tokenFile: /var/run/secrets/kubernetes.io/serviceaccount/token

кубе-прокси работает в userspace в любом случае. Как он роутит - зависит от параметров запуска.
Я к тому что это нормально, что он 80 порт слушает? Насколько я понимаю если он роутит в iptables то он должен просто правило добавлять

хм, правило кстати есть

Mikhail
20.09.2017
14:11:09
у меня не слушает в iptables mode

` --proxy-mode ProxyMode Which proxy mode to use: 'userspace' (older) or 'iptables' (faster). If blank, use the best-available proxy (currently iptables). If the iptables proxy is selected, regardless of how, but the system's kernel or iptables versions are insufficient, this always falls back to the userspace proxy. `

kvaps
20.09.2017
14:13:17
ага, значит это fallback!

Google
Mikhail
20.09.2017
14:13:58
наверное стоит запустить сервис какой-нибудь и посмотреть изменились правила iptables или нет

Anton
20.09.2017
14:18:09
гуглю, похоже что я зря гоню, он должен по умолчанию запускаться без ssl passthrough
с версии 0.9.0-beta.12: SSL passthrough is disabled by default. To enable the feature use --enable-ssl-passthrough

Mikhail
20.09.2017
14:21:36
kvaps
20.09.2017
14:23:15
хмм

отдельных правил нет если я использую один из локальных адресов ноды как externalIP для сервиса, то все работает отлично

но если я добавляю какой-нибудь внешний IP-адрес на одну из нод и указываю его как externalIP для сервиса, то внешние пакеты на этот IP дальше PREROUTING не уходят

дропаются ядром как martian source

при этом если rp_filtering отключить, оно вообще работает без default route для этого IP о__О

откуда он знает в какой интерфес ему ответные пакеты слать, для меня тоже загадка

На машине есть правила роутинга для сети подов?
прописал роут для сети подов и заработало, спасибо ip rule add from 10.244.0.0/16 lookup mytable

Но это вообще здоровое решение? :) И что если у меня несколько таких таблиц, для каждой таблицы такое правило прописать?

Mikhail
20.09.2017
15:15:58
вопрос ставит меня в тупик если честно. Если конфигурация этого требует - я прописываю, не требует, не прописываю :)

у меня сеть подов совпадает с сетью docker0 на интерфейсе.

kvaps
20.09.2017
15:18:06
огромное тебе спасибо, дружище!

Mikhail
20.09.2017
15:18:46
?

Danich
20.09.2017
15:39:08
Приветствую. У меня вопрос: Кто-нибудь сталкивался с тем, что при создании external контейнера, зависает на pending? kubectl get services: nginx 10.110.42.173 <pending> 80:80/TCP 20m Если создавать internal, то все окей: nginx-internal 10.107.207.123 <none> 33334/TCP 7m

Mikhail
20.09.2017
15:41:16
В describe не написано почему? (Это так, мысли вслух)

Google
Maksim
20.09.2017
15:57:46
pending означает, что нет подходящих нод

тут надо смотреть логи кублета

Danich
20.09.2017
15:59:43
хмм

Paul
20.09.2017
16:03:53
https://www.hashicorp.com/blog/hashicorp-vault-0-8-3/ вдруг кто не видел

Danich
20.09.2017
16:04:08
может нужно создать отдельно External endpoints?

Kaspar
20.09.2017
16:04:50
https://www.hashicorp.com/blog/hashicorp-vault-0-8-3/ вдруг кто не видел
спасибо! Kubernetes Auth Backend Vault 0.8.3 introduces native Kubernetes auth backend that allows Kubernetes pods to directly receive and use Vault auth tokens without additional integration components.

Fike
20.09.2017
17:03:14
У нас дженкинс
а чем kubectl не подходит?

Aleksandra
20.09.2017
17:06:13
а чем kubectl не подходит?
kubectl сам себя не запускает

Fike
20.09.2017
17:08:27
угу, этим занимается дженкинс

vladget
20.09.2017
17:36:16
User "system:anonymous" cannot get path "/ui/". это из-за RBAC?

Mikhail
20.09.2017
20:02:36
вестимо )

Дмитрий
21.09.2017
06:33:47
Всем, привет! Вопрос совсем немного не в тему, но по теме. У меня есть образ в котором поднимается rabbimq, который в свою очередь запускает epmd демон. Так вот при порождении потомков демоном epmd, эти самые потомки превращаются в зомби. Сообщение это пишу сюда лишь потому, что в кубере все родительские процессы порождаются процессом /pause, в а чистом докере нет. Так вот если запускать этот образ из чистого докера, то никаких зомби нет, а в случае с кубером - они создаются. У кого есть rabbitmq в проекте. Может кто-то сталкивался с этим?

Maksim
21.09.2017
07:15:08
да

Alexey
21.09.2017
07:41:37
Точно!

Artemiy
21.09.2017
07:48:25
Gitlab CI может
а можно примерчик gitlab-ci.yml файлика? или пошлите меня куда-нибудь по ссылке, буду благодарен

Artemiy
21.09.2017
07:49:14
спасибо!

Google
Алексей
21.09.2017
07:50:54
Там правда в автодеплое шаблон зверский. Сразу фиг поймёшь. Ещё вариант https://habrahabr.ru/company/flant/blog/332712/ тут попроще всё

Mikhail
21.09.2017
07:59:11
http://www.dasblinkenlichten.com/kubernetes-101-networking/ интересно про сеть.

Сергей
21.09.2017
08:17:29
баян 15 года, но по факту еще актуален

ну не во всех кейсах конечно

Mikhail
21.09.2017
08:27:08
Обесценивание как оно есть :)

Kvendingoldo
21.09.2017
08:39:27
Народ, а в к-ве best practice рекомендуется все-таки создавать Deployments, а не чисто pod?

Maksim
21.09.2017
08:41:20
смотря чего ты хочешь добиться

Роман
21.09.2017
09:00:47
Kvendingoldo
21.09.2017
09:01:57
смотря чего ты хочешь добиться
Как минимум хочу иметь auto healing у приложения

я просто попробовал и то, и то и не понял в чем фундаментальная разница

Разве что deployment в итоге создаст под

Maksim
21.09.2017
09:02:51
как раз в ауто хилинге ))

Kvendingoldo
21.09.2017
09:03:38
-))) facepalm

Maksim
21.09.2017
09:04:05
деплой это котроллер обновление пода)

там пишется история изи rollback делается и т.п.

плюс автоскелинг

Kvendingoldo
21.09.2017
09:55:06
спасибо за объяснение)

vladget
21.09.2017
11:08:15
User "system:anonymous" cannot get path "/ui/". это из-за RBAC?
А как сделать по человечески что бы не через kubectl proxy заходить?

Роман
21.09.2017
11:24:21
Ребята, дайте совет. Я хочу внутри кластера собирать метрики с nginx-vts ингресс-контроллера. Контроллер у меня - это поды с hostNetwork=true. То есть, они смотрят прямо в интернет. Я, конечно, могу создать контейнер с експортером, который будет читать прямо с внешнего адреса, но я хочу через внутренний сервис. Как это сделать? Пробовал создать сервис, но он мне возвращает дефолтную страницу nginx...

Paul
21.09.2017
11:24:58
это к аннтоациям

Страница 274 из 958