@kubernetes_ru

Страница 349 из 958
Denis
06.12.2017
08:56:49
А какой самый просто вариант заставить Jenkins игнорировать свои же коммиты? Сорри за оффтоп

Fike
06.12.2017
08:57:36
[ci skip]

bebebe
06.12.2017
08:58:07
всё это есть, включая бэкапы
либо вы меня не так поняли, либо врети https://i.imgur.com/Lx4XedE.png

Google
Даниил
06.12.2017
08:58:35


bebebe
06.12.2017
08:59:05
присмотритесь к этому пайплайну, два разных workflow который готовят k8s для aws и baremetal, gitlab не может дожидаться пока стейдж полность не пройдет и запустить другой. впрочем да, это оффтопик

Denis
06.12.2017
08:59:13
Даниил
06.12.2017
08:59:41
соря, не подскажу(

Denis
06.12.2017
08:59:57
ок, спасибо )

Даниил
06.12.2017
09:00:07
но этот варик 100% рабочий

только иногда глючит инклуд\эксклуд

Andrey
06.12.2017
09:01:05
либо вы меня не так поняли, либо врети https://i.imgur.com/Lx4XedE.png
https://docs.gitlab.com/ee/ci/multi_project_pipeline_graphs.html а если хочется бесплатного, то есть https://docs.gitlab.com/ee/ci/triggers/

bebebe
06.12.2017
09:01:51
вы меня опять не поняли, давайте либо в приват уйдем, либо перестанем оффтопить.

djaarf
06.12.2017
09:01:53
Под1 10.0.0.1/24, под2 10.0.0.2/24, под1 обращается по кластер ИП к под2 10.255.0.1/24, далее происходит днат (кластер ИП заменяется на 10.0.0.2), и когда трафик дошел до под2 он начинает отвечать со своего адреса 10.0.0.2 на адрес 10.0.0.1 и тут днат уже не отрабатывает и трафик через бридж идёт напрямую к контейнеру
трафик пода к "своему" же сервису не днатится, -A KUBE-SEP-VFJAMJXL7RM7FULA -s 10.200.2.44/32 -m comment --comment "default/my-service:" -j KUBE-MARK-MASQ -A KUBE-SEP-VFJAMJXL7RM7FULA -p tcp -m comment --comment "default/my-service:" -m tcp -j DNAT --to-destination 10.200.2.44:80 P.S. на самом деле днатится, но уже после маскарадинга, в под назначения он придет с другим src ip, видимо с ip ноды

Anton
06.12.2017
11:17:25
глупый вопрос: а зачем к самому себе не через 127.1 обращаться?

Google
Anatoliy
06.12.2017
11:24:34
Fike
06.12.2017
11:25:54
время создавать ci_ru или что-нибудь такое

Anatoliy
06.12.2017
11:26:06
И кстати вопрос по куберу, я могу как-то видоизменять iptables? кубер из за этого ничего там не поломает? У меня контейнер который билдится докером в поде не имеет доступ в инет(

Anton
06.12.2017
11:41:20
forward policy наверное drop

Anatoliy
06.12.2017
11:43:21
Угу, и меня интересуют последствия если я его уберу, с iptables у меня не очень хорошо, что оно сделает для кубера я вообще не могу понять... впрочем если критичного ничего не будет - можно попробовать убрать)

Anton
06.12.2017
12:10:54
кажется это docker приносит с собой

Anatoliy
06.12.2017
12:38:25
Всмысле докер приносит?

Sergey
06.12.2017
12:51:22
время создавать ci_ru или что-нибудь такое
для мазохистов(и любителей потрындеть) есть devops_ru

Anatoliy
06.12.2017
12:55:05
Sergey
06.12.2017
12:56:23
т.е. вы хотели сказать "на мои вопросы не отвечают"? )))

Fike
06.12.2017
12:56:31
Sergey
06.12.2017
12:57:48
ну я этот канал любителям флуда рекламирую. Вы вроде не из их числа. /offtop mode off

Anatoliy
06.12.2017
13:00:32
т.е. вы хотели сказать "на мои вопросы не отвечают"? )))
не только на мои) но написал, посмотрим что они ответят))

djaarf
06.12.2017
15:16:51
я так и не нашел правила которое делает маскарадинг
-A KUBE-MARK-MASQ -j MARK --set-xmark 0x4000/0x4000 вот так покидает prerouting цепочку и затем в postrouting-е -A KUBE-POSTROUTING -m comment --comment "kubernetes service traffic requiring SNAT" -m mark --mark 0x4000/0x4000 -j MASQUERADE

Maksim
06.12.2017
15:17:16
Мож кто может тут Стокнулся с такой проблемой Нужно что бы docker registry аутентифицировал клиентов через token, однако token сервер не умеет работать только по OAuth 2 При получении токена registry пишет, что токен пописан не доверенным сертификатом, при том что сертифкат указан в конфиге регистра

Я уже всё, на что хватило моего больного раассудка, перепробывал

Anton
06.12.2017
15:19:04
возился с похожим с portus. но там реально оказалось что сертификат не тот

Google
Maksim
06.12.2017
15:19:59
я его уде по буквенно сверял

при том регистр говорит, что не доверенный kid и у этого сертификата тот же kid

Anton
06.12.2017
15:21:25
мож запуск с другим сертом был

ну в общем я тож маялся и вроде все правильно, но оказалось что серт всетаки не тот

Dmitry
06.12.2017
15:34:59
-A KUBE-MARK-MASQ -j MARK --set-xmark 0x4000/0x4000 вот так покидает prerouting цепочку и затем в postrouting-е -A KUBE-POSTROUTING -m comment --comment "kubernetes service traffic requiring SNAT" -m mark --mark 0x4000/0x4000 -j MASQUERADE
чтоб попасть в эту цепочку сервис должен сам себе отправить пакет на кластерип -A KUBE-SEP-VFJAMJXL7RM7FULA -s 10.200.2.44/32 -m comment —comment "default/my-service:" -j KUBE-MARK-MASQ

то есть это правило нужно для того же чтоб сервис сам к себе мог обращаться по кластерип )

Maksim
06.12.2017
17:01:47
мож запуск с другим сертом был
а как ты ключ в регистр добавлял? есть мнение что я его не правильно кидаю

rootcertbundle я его вот этим ключом добавляю

Anton
06.12.2017
17:22:29
У меня уже нет доступа к тому регистри

Anatoliy
06.12.2017
17:28:51
А есть что-то что что бы докер мог начать в инет ходить? Даже если просто руками docker run -it --rm alpine /bin/ash запускаю ничего не пингуется(снаружи).

bebebe
06.12.2017
17:54:13
вы еще не расшарили доступ до своего окружения чатику? :)

намного бы бодрее пошло

Sergey
06.12.2017
18:03:48
они должны быть на одной ноде два пода kubectl get pods -o wide
я помню ваш кейс. Вывод подов с миникубе )

Anatoliy
06.12.2017
18:05:50
вы еще не расшарили доступ до своего окружения чатику? :)
звиняйте но нет) Да и осталось то немного в принципе) не понимаю почему если стартовать докер руками там сети нет( Делаю docker build в одном из подов и тот образ что создается не может закачать себе все что ему необходимо( Падает по таймауту(

Sergey
06.12.2017
18:06:43
че такое, в devops_ru вас не пнули читать про docker-in-docker ? ))

Anatoliy
06.12.2017
18:07:21
про dind читал. не работает

bebebe
06.12.2017
18:07:39
я помню ваш кейс. Вывод подов с миникубе )
Кстати никто не заметил что миникуб испортился? С последним релизом те же проблемы

Anatoliy
06.12.2017
18:07:40
можно просто руками запустить докер на хост машине кубера и там тоже не будет сети

bebebe
06.12.2017
18:08:00
На инсталляции проблема с сертификатами x509

Sergey
06.12.2017
18:09:07
про dind читал. не работает
даю наводку http://jpetazzo.github.io/2015/09/03/do-not-use-docker-in-docker-for-ci/

Google
Anatoliy
06.12.2017
18:11:14
даю наводку http://jpetazzo.github.io/2015/09/03/do-not-use-docker-in-docker-for-ci/
docker run -v /var/run/docker.sock:/var/run/docker.sock \ -ti docker Вот так и пользуюсь

Но блин мне не важно так я это запускаю или нет. у меня нет сети во всех контейнерах которые я запускаю руками. Вот просто docker run -it --rm alpine sh и там ping 8.8.8.8 - не работает

Anton
06.12.2017
19:16:46
Анатолий, ну что вы, ну проверьте разрешено ли в iptables forward по умолчанию

Загуглите почему так

Если так

Блин дампаните трафик

Admin
ERROR: S client not available

Anton
06.12.2017
19:17:28
Ну что же, почему же не идёт трафик

Vladyslav
06.12.2017
22:40:48
Всем привет в этом чатике )

посоветуйте, пожалуйста, нормальный мониторинг кубернетса

Paul
06.12.2017
22:44:38
прометей вполне справляется

Vladyslav
06.12.2017
22:45:35
отьехали от него в заббикс )

но чувствую придется юзать еще и его

Paul
06.12.2017
22:46:15
заббикс не рекомендую использовать никогда

Vladyslav
06.12.2017
22:46:39
7 кругов ада прошли )

так что )

Paul
06.12.2017
22:47:45
7 кругов ада прошли )
не так страшны первые 7 кругов ада, как вторые 7 кругов ада. В любом случае это рекомендация и это субъективно. За вопрос о заббиксе в @metrics_ru вас забанят сразу и навсегда

еще и посмеются

Vladyslav
06.12.2017
22:48:44
чисто интересно, у себя прометей юзаете ?

на все кроме кубера

Google
Paul
06.12.2017
22:49:04
да

был заббикс, ушли к прометею

Paradigma
07.12.2017
03:34:59
Парни кто уже сталкивался с подобным, Kube-lego nginx-controller time="2017-12-07T02:57:47Z" level=info msg="ignoring as has no annotation 'kubernetes.io/tls-acme'" context=ingress name=front-end namespace=sock-shop time="2017-12-07T02:57:47Z" level=info msg="process certificate requests for ingresses" context=kubelego time="2017-12-07T02:57:47Z" level=info msg="Attempting to create new secret" context=secret name=sock-shop-tls namespace=sock-shop time="2017-12-07T02:57:47Z" level=info msg="no cert associated with ingress" context="ingress_tls" name=front-end-tls namespace=sock-shop time="2017-12-07T02:57:47Z" level=info msg="requesting certificate for socks.domain" context="ingress_tls" name=front-end-tls namespace=sock-shop time="2017-12-07T02:59:24Z" level=warning msg="authorization failed after 1m0s: reachability test failed: wrong status code '503'" context=acme domain=socks.domain.com

Anatoliy
07.12.2017
04:15:29
вроде же всё написано? msg="requesting certificate for socks.domain" context="ingress_tls"

Anton
07.12.2017
08:31:37
Docker Enterprise Edition with support for Kubernetes will be in beta this month and be generally available in February. Those who use Docker for Mac will get access to the first Docker CE edge release with Kubernetes support later this month. Docker for Windows will follow shortly thereafter. https://blog.docker.com/2017/12/kubernetes-in-docker-ee/ баян конечно. но я чет плохо понимаю как это будет выглядеть. тоесть я на маке смогу в докере с kubectl применять свои k8s деплойменты. но в проде нужен docker ee чтобы иметь кластер?

тоесть docker ce на маке заменит minikube по функциональности?

docker inc красавчики кнчно. For admins, they can get a cluster up and running with Kubernetes by simply installing Docker EE with a one-line command. Once the cluster is running, Kubernetes is installed as part of Docker EE and runs independently, free of any dependency on swarm. This includes mutually authenticated TLS for all nodes in the cluster with certificate rotation. интерпрайзный baremetal под себя подминают =)

Igor
07.12.2017
08:41:11
Так это только замена kubelet’а? Или там можно мастер ноды поднять с etcd?

Anton
07.12.2017
08:42:44
Так это только замена kubelet’а? Или там можно мастер ноды поднять с etcd?
тяжело сейчас сказать. прилетит мне обновка на мак, посмотрю =)

по ссылке написано что ноды можно динамически отдавать в swarm или в kubernetes

и что будет маппинг сущностей docker-compose -> kubernetes и можно будет деплоить в к8с кластер из docker-compose

Sergey
07.12.2017
08:46:05
кому нужен сварм если есть кубер?

Anton
07.12.2017
08:46:19
написано что все фичи и на swarm налепили тоже, например Secure Multi-Tenancy With flexible and granular role-based access controls (RBAC) down to the API-level, admins can integrate AD/LDAP once and support different teams bringing different apps (Windows, Linux, or mainframe) of different app types (microservices, ISV, or traditional), leveraging different orchestrators (Swarm or Kubernetes) all in to the same Docker EE environment with secure isolation between them. That allows development teams to bring their own tools and processes into the same environment. For users deploying applications to the Docker EE cluster, they get the choice of API in Kubernetes or Swarm, across a common set of nodes and using a common set of container images secured by the Trusted Registry.

кому нужен сварм если есть кубер?
ну типа того, к8с пиарится и продается, нужно быть в тренде и продавать его тоже. это ж круто

Страница 349 из 958