@kubernetes_ru

Страница 204 из 958
Artemiy
07.07.2017
10:48:16
я создал я создал, https://t.me/rancher_ru

Alexey
07.07.2017
10:50:36
В процессе переезда ещё. На текущий момент было около 15, что-ли. Вместе, правда с инфраструктурными вещами: графанки, инфлюксы и прочее. По контейнерам суммарно где-то пока набирается штук 150.

Но пободался я с ним и его разработчиками знатно.

Google
Роман
07.07.2017
11:04:59
Или, для того, чтобы сделать post replicationcontroller нужно clusterrole?

Да. Всё верно. Вопрос отпал)

Serg
07.07.2017
14:41:18
https://kubernetes.io/docs/concepts/services-networking/ingress/ "kubectl get ing NAME RULE BACKEND ADDRESS test-ingress - testsvc:80 107.178.254.228 Where 107.178.254.228 is the IP allocated by the Ingress controller to satisfy this Ingress. The RULE column shows that all traffic send to the IP is directed to the Kubernetes Service listed under BACKEND" Нигде не могу найти, как задать свой IP?

Maksim
07.07.2017
14:50:14
никак

ip прилитает от ingress контроллера

Serg
07.07.2017
14:55:29
а где в Ingress контроллере настроить, чтобы прилетал нужный ?

Igor
07.07.2017
15:56:23
Artem
07.07.2017
16:56:47
а что с ингресс случилось https://pastebin.com/mkj9UXsc

после обновления кубернетиса до 1.6.4 поломался ингресс.

Annotations: kismatic/version=1.3.3

Image: gcr.io/google_containers/nginx-ingress-controller:0.8.3

кто сталкивался?

Google
Artem
07.07.2017
17:16:33
nvm обновил версию заработало все опять

Let Eat
07.07.2017
17:20:41
не могу заставить daemonset запускать поды на всех нодах, на контроллерах не запускает. при этом ошибок нет, просто desired стоит меньше, чем нод в кластере. tolerations выставлены 1-в-1 как в рядом запущеном daemonset, который запускает поды везде без проблем. глаза сломал сравнивать конфиги :(

Altai
07.07.2017
20:20:27
С kubeadm нет же файрвола изкоробочного никакого? То есть единственный вариант - ручками на всех машинках править iptables?

Artem
07.07.2017
21:16:02
а зачем он? там по идее все закрыто, наружу торчат только exposr

Altai
07.07.2017
21:16:41
Так и есть, но иногда хочется дополнительно и это фильтровать.

А, нет, погодите-ка. Там всё наружу торчит, наоборот.

Artem
07.07.2017
21:20:08
всё что на подах нет. а сервисы кубернетеса можно прикрыть вручную на хосте. н в теории это все на серой сети работает все равно

Altai
07.07.2017
21:21:20
На INPUT всё прикрыто руками, что с интерфейса, торчащего в интернеты, кроме явно определенных адресов других нод.

Сказать ноде, что для кубернетеса всё пускать через такой-то интерфейс, а экспозить на таком-то интерфейсе - это через InternalIP и ExternalIP в итоге или как?

Artem
07.07.2017
21:23:17
н у вот в кубернетесе ничего такого быть не должно. там торчит один айпишник лоадбалансера и на нем тупой nginx или haproxy

или ещё какой балансер

их вроде хватает

Altai
07.07.2017
21:24:33
Ну, когда есть локалочка отдельная, чтобы оверлей-сеть поверх нее была, а то, что через ингресс наружу выставляется - было на другом интерфейсе.

Artem
07.07.2017
21:25:11
у тебя серваки друг к другу по инету ходят?

Altai
07.07.2017
21:25:44
Пока да, приватной сети нет.

Artem
07.07.2017
21:27:24
докер свой оверлей на белых адресах строит? там хост1 со своей сетью серой, хост2 с другой. никто никуда не ходит и друг друга не видит. кубернетис их контачит сам. фланель там или калико или ещё что

и даже эти сети серые. а экспозится должен сервис в один два адреса или сколько там ингресов стоит. двух хватает за глаза

покажи ip r

Altai
07.07.2017
21:30:57
Ну, вот, например default via 99.111.222.1 dev ens3 10.32.0.0/12 dev weave proto kernel scope link src 10.32.0.1 99.111.222.0/24 dev ens3 proto kernel scope link src 99.111.222.33 172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1 linkdown

Artem
07.07.2017
21:34:06
ну вот weave контачит между собой хосты докера

Google
Artem
07.07.2017
21:34:44
что конкретно тебя пугает и что ты хочешь фильтровать?

Altai
07.07.2017
21:35:20
Ну, а он поверх UDP работает ведь, так?

Artem
07.07.2017
21:36:40
угу

Altai
07.07.2017
21:36:51
Просто неприятно, когда наружу светятся какие-то порты. :\ Хочется, чтобы weave поверх одной сети строился, а торчали ингресы наружу - с другой. Как минимум если есть приватная сеть быстрая, хотя бы из-за скорости.

Artem
07.07.2017
21:37:06
это некая кастомная имплементация vxlan

дропай все кроме weave и лоадбалансера где expose)

Altai
07.07.2017
21:42:12
Собственно, пока ручками так и делаю. :)

Но вот должна подъехать приватная сеть, поэтому интересно сразу, как между собой заставить ноды общаться через нее, а ингресс висеть на той, что во внешку торчит. Просто указать из под нужных интерфейсов InternalIP и ExternalIP для нод?

Artem
07.07.2017
21:46:28
ну смотря как там все смаршруьизируют

Alexey
08.07.2017
08:51:00
Котики, ещё один нубский вопрос у меня. Как вы вообще объединяете/запускаете/именуете связанные сущности в кубах. Вот к примеру в ранчере есть понятие стека в котором запускаются сервисы(поды в кубе) и нейминг контейнера идёт как stackname_servicename_uuid. Что юзается в кубах? Неймспейсы или какие-то хитрые лейблы?

Yegor
08.07.2017
10:30:40
@ketchoop в поде вы можете запустить несколько контейнеров

А так, если связка логическая, то лейблы

Alexey
08.07.2017
12:14:18
Именно логическая. Мне не нужны сайдкары

Пример — есть приложуля и у неё есть к примеру база, очередь и пр.

То есть мне нужны лейблы фигачить. Типа нейминг будет database, а лейбл — my_app_name?

Конфликта не будет с неймингом? Если у меня такое же имя есть — database

В ранчере решается это на уровне стекнейма.

Paul
08.07.2017
16:06:37
странно, что не упомянули kops
потому, что вопрос был про Bare Metal

Александр
08.07.2017
16:07:22
упс

Google
Maxim
08.07.2017
18:19:06
Artem
08.07.2017
18:19:43
kismatic работает лучше всех. ранчер ок но там версии староватые и придется поплясать с persistent storage

Kargo это приболевший kismatic. вроде все то же самое, но нихера не работает из коробки, постоянно надо чет руками подпинывать

плюс кизматик из коробки ставит pre-install check и тесты и после деплоя заряжает смоктесты

и обновлять одно удовольствие

Paul
08.07.2017
18:24:19
описано очень вкусно, надо экспериментировать. карго работает весьма коряво

Artem
08.07.2017
18:24:36
я его выдал джуниору, он за день раскатал ha кластер. вообще до этого кубернетес не видел.

Admin
ERROR: S client not available

Artem
08.07.2017
18:25:44
а карго постоянно что-то не то делает да. ну это опенстек что вы хотите. там все постоянно на ручном педалировании молотка и какой-то матери

Konstantin
08.07.2017
18:27:06
У нас карго работает хорошо, единственное, что они немного медлительны и 1.7 еще не поддерживают.

Artem
08.07.2017
18:28:42
что ещё хорошо в кизматик там можно включить linkerd

одной командой

Paul
08.07.2017
18:28:59
а карго постоянно что-то не то делает да. ну это опенстек что вы хотите. там все постоянно на ручном педалировании молотка и какой-то матери
карго у меня не заработал вообще, хотя в кубе я немножечко уже понимаю. в кизматик поддерживаются разные сети?

Artem
08.07.2017
18:29:55
kismatic как раз имеет и минус. из сети там только calico

Paul
08.07.2017
18:30:36
kismatic как раз имеет и минус. из сети там только calico
это не минус. Это просто неприемлимое поведение, вот и все

Artem
08.07.2017
18:32:13
почему неприемлемое. calico продукт enterprise класса с широким функционалом. устраивает почти всех.

Paul
08.07.2017
18:33:09
почему неприемлемое. calico продукт enterprise класса с широким функционалом. устраивает почти всех.
не меня. мне калико не нравится и я им не пользуюсь. Фраза "устраивает почти всех" выбешивает просто невероятно

Artem
08.07.2017
18:35:22
ну а альтернатива какая? есть лучше?

Paul
08.07.2017
18:37:23
ну а альтернатива какая? есть лучше?
альтернативы: - kubeadm - kargo - kubespray - minicube.sh - chef coobook от evilmartians

Artem
08.07.2017
18:38:07
в любом случае заменить один плагин на другой это гораздо быстрее, чем сетапить кластер с нуля кривым инсталлятором.

Google
Paul
08.07.2017
18:38:20
ни один существующий способ установки нельзя назвать нормальным. Но авторы куба разумно считают, что делать фичи и лечить баги - важнее. У кого есть страстное желание поставить шеф руками - пусть ставит сам или делает свою автоматизацию

Artem
08.07.2017
18:38:26
альтернатива калико а не инсталлятора.

всё вышеперечисленное это набор мазохиста а не инсталляторы. для прода это все не годится.

Paul
08.07.2017
18:40:25
всё вышеперечисленное это набор мазохиста а не инсталляторы. для прода это все не годится.
все без исключения исталляторы, с которыми я сталкивался - имели фатальные недостатки. Включая вышеуказанный

Artem
08.07.2017
18:42:32
калико более функционален. ovs вообще не CNI. canal ещё пилят на ранней стадии.

недостатки есть у всех. но вот kismatic тесты гоняет перед установкой. и там где карго упадёт с непонятной ошибкой, kismatic предупредит например.

Konstantin
08.07.2017
18:46:22
Мы в kubespary делали MR, там тоже 2часа тесты гоняются)

Artem
08.07.2017
18:48:36
это особенности подхода к решению задачи. у остальных подход вообще отсутствует. кучу скриптов запускают и вались оно конем.

Andrew
08.07.2017
22:11:08
Наклепал вот скриптики для деплоя кубера, использую для тестов. мож кому интересно https://github.com/hfrog/kube-deploy

Если что - пишите лучше в личку

Kaspar
09.07.2017
05:51:42
Докер в хату

bebebe
09.07.2017
06:56:40
Докер в хату
Есть два варианта контейнеризации, докер и рокит, на каком стейджинг будешь делать, на каком продакшн деплоить

Kaspar
09.07.2017
06:58:24
Сам на куб сяду, докер на колени поставлю

Вообщем как я понял проще всего попробовать куб через гугл энжин?

Fike
09.07.2017
07:28:37
ребят, можно хотя бы здесь без натужного юмора? мне в офисе хватает

Maxim
09.07.2017
07:30:08
Можешь попробовать openshift с простым ansible скриптом для развертывания кластера, веб морда в подарок

Fike
09.07.2017
07:40:51
а ты переоцениваешь свои творческие навыки

Страница 204 из 958