
Artemiy
07.07.2017
10:48:16
я создал я создал, https://t.me/rancher_ru

Alexey
07.07.2017
10:50:36
В процессе переезда ещё. На текущий момент было около 15, что-ли. Вместе, правда с инфраструктурными вещами: графанки, инфлюксы и прочее. По контейнерам суммарно где-то пока набирается штук 150.
Но пободался я с ним и его разработчиками знатно.

Google

Роман
07.07.2017
11:04:59
Или, для того, чтобы сделать post replicationcontroller нужно clusterrole?
Да. Всё верно. Вопрос отпал)

Serg
07.07.2017
14:41:18
https://kubernetes.io/docs/concepts/services-networking/ingress/
"kubectl get ing
NAME RULE BACKEND ADDRESS
test-ingress - testsvc:80 107.178.254.228
Where 107.178.254.228 is the IP allocated by the Ingress controller to satisfy this Ingress. The RULE column shows that all traffic send to the IP is directed to the Kubernetes Service listed under BACKEND"
Нигде не могу найти, как задать свой IP?

Maksim
07.07.2017
14:50:14
никак
ip прилитает от ingress контроллера

Let Eat
07.07.2017
14:54:25

Serg
07.07.2017
14:55:29
а где в Ingress контроллере настроить, чтобы прилетал нужный ?

Igor
07.07.2017
15:56:23

Artem
07.07.2017
16:56:47
а что с ингресс случилось
https://pastebin.com/mkj9UXsc
после обновления кубернетиса до 1.6.4 поломался ингресс.
Annotations: kismatic/version=1.3.3
Image: gcr.io/google_containers/nginx-ingress-controller:0.8.3
кто сталкивался?

Google

Artem
07.07.2017
17:16:33
nvm обновил версию заработало все опять

Let Eat
07.07.2017
17:20:41
не могу заставить daemonset запускать поды на всех нодах, на контроллерах не запускает. при этом ошибок нет, просто desired стоит меньше, чем нод в кластере. tolerations выставлены 1-в-1 как в рядом запущеном daemonset, который запускает поды везде без проблем. глаза сломал сравнивать конфиги :(

Altai
07.07.2017
20:20:27
С kubeadm нет же файрвола изкоробочного никакого? То есть единственный вариант - ручками на всех машинках править iptables?

Artem
07.07.2017
21:16:02
а зачем он? там по идее все закрыто, наружу торчат только exposr

Altai
07.07.2017
21:16:41
Так и есть, но иногда хочется дополнительно и это фильтровать.
А, нет, погодите-ка. Там всё наружу торчит, наоборот.

Artem
07.07.2017
21:20:08
всё что на подах нет. а сервисы кубернетеса можно прикрыть вручную на хосте. н в теории это все на серой сети работает все равно

Altai
07.07.2017
21:21:20
На INPUT всё прикрыто руками, что с интерфейса, торчащего в интернеты, кроме явно определенных адресов других нод.
Сказать ноде, что для кубернетеса всё пускать через такой-то интерфейс, а экспозить на таком-то интерфейсе - это через InternalIP и ExternalIP в итоге или как?

Artem
07.07.2017
21:23:17
н у вот в кубернетесе ничего такого быть не должно. там торчит один айпишник лоадбалансера и на нем тупой nginx или haproxy
или ещё какой балансер
их вроде хватает

Altai
07.07.2017
21:24:33
Ну, когда есть локалочка отдельная, чтобы оверлей-сеть поверх нее была, а то, что через ингресс наружу выставляется - было на другом интерфейсе.

Artem
07.07.2017
21:25:11
у тебя серваки друг к другу по инету ходят?

Altai
07.07.2017
21:25:44
Пока да, приватной сети нет.

Artem
07.07.2017
21:27:24
докер свой оверлей на белых адресах строит? там хост1 со своей сетью серой, хост2 с другой. никто никуда не ходит и друг друга не видит. кубернетис их контачит сам. фланель там или калико или ещё что
и даже эти сети серые. а экспозится должен сервис в один два адреса или сколько там ингресов стоит. двух хватает за глаза
покажи ip r

Altai
07.07.2017
21:30:57
Ну, вот, например
default via 99.111.222.1 dev ens3
10.32.0.0/12 dev weave proto kernel scope link src 10.32.0.1
99.111.222.0/24 dev ens3 proto kernel scope link src 99.111.222.33
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1 linkdown

Artem
07.07.2017
21:34:06
ну вот weave контачит между собой хосты докера

Google

Artem
07.07.2017
21:34:44
что конкретно тебя пугает и что ты хочешь фильтровать?

Altai
07.07.2017
21:35:20
Ну, а он поверх UDP работает ведь, так?

Artem
07.07.2017
21:36:40
угу

Altai
07.07.2017
21:36:51
Просто неприятно, когда наружу светятся какие-то порты. :\
Хочется, чтобы weave поверх одной сети строился, а торчали ингресы наружу - с другой. Как минимум если есть приватная сеть быстрая, хотя бы из-за скорости.

Artem
07.07.2017
21:37:06
это некая кастомная имплементация vxlan
дропай все кроме weave и лоадбалансера где expose)

Altai
07.07.2017
21:42:12
Собственно, пока ручками так и делаю. :)
Но вот должна подъехать приватная сеть, поэтому интересно сразу, как между собой заставить ноды общаться через нее, а ингресс висеть на той, что во внешку торчит. Просто указать из под нужных интерфейсов InternalIP и ExternalIP для нод?

Artem
07.07.2017
21:46:28
ну смотря как там все смаршруьизируют

Alexey
08.07.2017
08:51:00
Котики, ещё один нубский вопрос у меня. Как вы вообще объединяете/запускаете/именуете связанные сущности в кубах. Вот к примеру в ранчере есть понятие стека в котором запускаются сервисы(поды в кубе) и нейминг контейнера идёт как stackname_servicename_uuid. Что юзается в кубах? Неймспейсы или какие-то хитрые лейблы?

Yegor
08.07.2017
10:30:40
@ketchoop в поде вы можете запустить несколько контейнеров
А так, если связка логическая, то лейблы

Alexey
08.07.2017
12:14:18
Именно логическая. Мне не нужны сайдкары
Пример — есть приложуля и у неё есть к примеру база, очередь и пр.
То есть мне нужны лейблы фигачить. Типа нейминг будет database, а лейбл — my_app_name?
Конфликта не будет с неймингом? Если у меня такое же имя есть — database
В ранчере решается это на уровне стекнейма.

Александр
08.07.2017
16:06:07

Paul
08.07.2017
16:06:37

Александр
08.07.2017
16:07:22
упс

Google

Maxim
08.07.2017
18:19:06

Artem
08.07.2017
18:19:43
kismatic работает лучше всех. ранчер ок но там версии староватые и придется поплясать с persistent storage
Kargo это приболевший kismatic. вроде все то же самое, но нихера не работает из коробки, постоянно надо чет руками подпинывать
плюс кизматик из коробки ставит pre-install check и тесты и после деплоя заряжает смоктесты
и обновлять одно удовольствие

Paul
08.07.2017
18:24:19
описано очень вкусно, надо экспериментировать. карго работает весьма коряво

Artem
08.07.2017
18:24:36
я его выдал джуниору, он за день раскатал ha кластер. вообще до этого кубернетес не видел.

Admin
ERROR: S client not available

Artem
08.07.2017
18:25:44
а карго постоянно что-то не то делает да. ну это опенстек что вы хотите. там все постоянно на ручном педалировании молотка и какой-то матери

Konstantin
08.07.2017
18:27:06
У нас карго работает хорошо, единственное, что они немного медлительны и 1.7 еще не поддерживают.

Artem
08.07.2017
18:28:42
что ещё хорошо в кизматик там можно включить linkerd
одной командой

Paul
08.07.2017
18:28:59

Artem
08.07.2017
18:29:55
kismatic как раз имеет и минус. из сети там только calico

Paul
08.07.2017
18:30:36

Artem
08.07.2017
18:32:13
почему неприемлемое. calico продукт enterprise класса с широким функционалом. устраивает почти всех.

Paul
08.07.2017
18:33:09

Artem
08.07.2017
18:35:22
ну а альтернатива какая? есть лучше?

Paul
08.07.2017
18:37:23

Artem
08.07.2017
18:38:07
в любом случае заменить один плагин на другой это гораздо быстрее, чем сетапить кластер с нуля кривым инсталлятором.

Google

Paul
08.07.2017
18:38:20
ни один существующий способ установки нельзя назвать нормальным. Но авторы куба разумно считают, что делать фичи и лечить баги - важнее. У кого есть страстное желание поставить шеф руками - пусть ставит сам или делает свою автоматизацию

Artem
08.07.2017
18:38:26
альтернатива калико а не инсталлятора.
всё вышеперечисленное это набор мазохиста а не инсталляторы. для прода это все не годится.

Paul
08.07.2017
18:40:25

Artem
08.07.2017
18:42:32
калико более функционален.
ovs вообще не CNI. canal ещё пилят на ранней стадии.
недостатки есть у всех. но вот kismatic тесты гоняет перед установкой. и там где карго упадёт с непонятной ошибкой, kismatic предупредит например.

Konstantin
08.07.2017
18:46:22
Мы в kubespary делали MR, там тоже 2часа тесты гоняются)

Artem
08.07.2017
18:48:36
это особенности подхода к решению задачи. у остальных подход вообще отсутствует. кучу скриптов запускают и вались оно конем.

Andrew
08.07.2017
22:11:08
Наклепал вот скриптики для деплоя кубера, использую для тестов. мож кому интересно https://github.com/hfrog/kube-deploy
Если что - пишите лучше в личку

Kaspar
09.07.2017
05:51:42
Докер в хату

bebebe
09.07.2017
06:56:40
Докер в хату
Есть два варианта контейнеризации, докер и рокит, на каком стейджинг будешь делать, на каком продакшн деплоить

Kaspar
09.07.2017
06:58:24
Сам на куб сяду, докер на колени поставлю
Вообщем как я понял проще всего попробовать куб через гугл энжин?

Fike
09.07.2017
07:28:37
ребят, можно хотя бы здесь без натужного юмора? мне в офисе хватает

Maxim
09.07.2017
07:30:08
Можешь попробовать openshift с простым ansible скриптом для развертывания кластера, веб морда в подарок

Kaspar
09.07.2017
07:31:20

Fike
09.07.2017
07:40:51
а ты переоцениваешь свои творческие навыки