
Arslanbekov
19.06.2018
10:18:06

Andrey
19.06.2018
10:19:12

Arslanbekov
19.06.2018
10:19:25

Google

Andrey
19.06.2018
10:19:42

Arslanbekov
19.06.2018
10:20:39

Andrey
19.06.2018
10:21:14

Volodimir Fedorov
19.06.2018
10:21:28

Arslanbekov
19.06.2018
10:22:22
обходимся ce..
https://about.gitlab.com/pricing/
не вижу тут такого тарифа

Volodimir Fedorov
19.06.2018
10:22:44
https://gitlab.com/gitlab-org/gitlab-ce
это спец тариф для нищебродов

Arslanbekov
19.06.2018
10:23:37
?понятно, там нет же интеграции с кубером

Дмитрий
19.06.2018
10:23:38
как можно пересоздать kube-proxy на кластере?

Volodimir Fedorov
19.06.2018
10:23:43
отнюдь..
там очень даже есть интеграция с кубером)

Arslanbekov
19.06.2018
10:23:57
ну, да, согласен) есть, но ограничения больно душат

Ivan
19.06.2018
10:24:10
обходимся ce..
а чего вам лично очень сильно не хватает в СЕ? подумываю свалить с тимсити

Google

Arslanbekov
19.06.2018
10:24:12

Volodimir Fedorov
19.06.2018
10:24:56
более гибких ролей не хватает
аналитику приходятся давать роль девелопера чтобы он мог вики например править..

Artemiy
19.06.2018
10:49:22
привет. у нас тут клуб по интересам, про Rancher https://t.me/rancher_ru . вступайте, если интересно

Stanislav
19.06.2018
10:54:13
Скотоводцы)

Vasilyev
19.06.2018
10:55:41
??

Sergey
19.06.2018
10:56:25
ковбои

M
19.06.2018
10:58:45
Ребят на сколько ещё swarm актуален для маленьких проектов, два - три - пять серверов

Artemiy
19.06.2018
11:00:13
xD

Const
19.06.2018
11:01:08

Vladimir
19.06.2018
11:01:34
https://soar.name/ru/pro/half-a-year-with-docker-swarm-mode-in-production/
Статья годичной давности, но вполне актуально и сейчас :)

Ivan
19.06.2018
11:02:10

M
19.06.2018
11:02:11

Ivan
19.06.2018
11:07:44

Vladimir
19.06.2018
11:08:44

Ivan
19.06.2018
11:09:29

Vladimir
19.06.2018
11:10:00
проблем наверняка больше. просто их описать грамотно сложнее, потому как сложнее понять, что не так, и как это воспроизвести, чтобы ишью зарепортить.
Отчасти поэтому я пока на Nomad решил смотреть. С ним всё сильно проще, хотя и возможностей меньше. Но k8s тоже есть в планах.

Ivan
19.06.2018
11:10:47

Google

Михаил
19.06.2018
11:16:38

Ivan
19.06.2018
11:16:48
А то все говорят, что кубы - стандарт, все дела. Но никто не говорит какой ценой он внедряет всё это добро. (ну ок, не никто) просто статья выше прям качественно отпугивает тебя от сворма.

kvaps
19.06.2018
11:30:20
https://hsto.org/getpro/habr/post_images/f9e/e70/e91/f9ee70e91340ff095e81f8d77ed7c458.png

bebebe
19.06.2018
11:47:12

Vasilyev
19.06.2018
11:47:19
бОян который не потеряет свою актуальность еще лет 5 точно ?

Banschikov
19.06.2018
12:00:01
Братцы! Аларм!
Такой трабл в кубе происходит.
Есть сервис ClusterIP 10.233.55.84
kubelet чекает этот сервис на livenessProbe. Выдает следущее:
Liveness probe failed: dial tcp 10.233.94.86:9300: getsockopt: connection refused
Начинаю дергать курлом ClusterIP, и по адресу ресурс доступен. Потом делаю тоже самое на адрес, по которому ломится kubelet. И там тоже сервис доступен.! Вообще ничего не понимаю.

No1
19.06.2018
12:01:57
только я вижу разные иП?

Banschikov
19.06.2018
12:02:33
только я вижу разные иП?
я х.з откуда кубелет берет второй адрес, но хелтчек он сделать не может, но по этому адресу ресурс доступен

Sergei
19.06.2018
12:03:55
это скорее всего адрес endpoint'а
health check же каждый pod опрашивает, а не весь сервис целиком

Banschikov
19.06.2018
12:06:14

Sergei
19.06.2018
12:07:21
никаких NetworkPolicy нету?

Banschikov
19.06.2018
12:08:45

Sergei
19.06.2018
12:11:13
а dnsmasq agent стоит? у меня было похожее, когда сетка кластера частично совпадала с офисной сеткой. ты крулом проверял где?

Banschikov
19.06.2018
12:12:31

Denis
19.06.2018
13:16:45
народ магия какая то - кластер ДЕВ вырубился на ночь , с утра ни фига не работает ни один контейнер ни на мастере ни на воркерах не бежит . хз че проиходит , куда копать хоть
kubelet - бежит \ dockerd тоже . И все как бы

Andrey
19.06.2018
13:18:28

Google

Denis
19.06.2018
13:23:09
etcdctl --endpoints http://10.ххх.ххх.ххх:2380 cluster-health
cluster may be unhealthy: failed to list members
Error: client: etcd cluster is unavailable or misconfigured; error #0: net/http: HTTP/1.x transport connection broken: malformed HTTP response "\x15\x03\x01\x00\x02\x02"
error #0: net/http: HTTP/1.x transport connection broken: malformed HTTP response "\x15\x03\x01\x00\x02\x02"

Andrey
19.06.2018
13:23:41
неправильно смотришь

Stanislav
19.06.2018
13:23:51
Кадилом поводит, водичкой сервачки сдобрит и все будет норм.

Admin
ERROR: S client not available

Sergey
19.06.2018
13:25:07
может передеплоить кластер?

Denis
19.06.2018
13:25:43

Andrey
19.06.2018
13:25:48

Sergey
19.06.2018
13:25:52
изза чего паника, всегда должен быть выход откатиться
а все пчаму?
потому что мониторинга нет нормального
так бы по алертам прошлись и все

Andrey
19.06.2018
13:26:35

Denis
19.06.2018
13:27:08

Andrey
19.06.2018
13:28:28

Denis
19.06.2018
13:29:11
api is down , kubectl бесполезен

Andrey
19.06.2018
13:30:13

Sergey
19.06.2018
13:30:14

Ivan
19.06.2018
13:34:38
это прям хорошо, правильно

Denis
19.06.2018
13:35:07
пстц чет я не допру как итцд кластер инфо посмотреть, нашел на ноде - /etc/etcd.env . Все пиры и сертификаты там, но кластер хелс все равно ?
скажите , а порядок поднятия нодов важен?

Google

Yu
19.06.2018
13:36:00
ETCDCTL_API=3 etcdctl ...

Denis
19.06.2018
13:50:54
бля магия
короче походу нужно поднимать все по очередности - etcd => masters => workers
ну или волшебный ребут помог
всем спасибо

Andrey
19.06.2018
14:08:08
Вот чтобы не паниковать при аварии, стоит подтянуть матчасть, а особенно почитать внимательно про работу control plane в Kubernetes.
kubeadm или kubespray не сделает магии, когда всё развалилось.

Andrey
19.06.2018
14:10:14
Ребят, а ни у кого не было такого что долго отрабатывает resolve на внешние адреса внутри куба? (в сети хватает issues с этим)

Denis
19.06.2018
14:52:12

Alexandr
19.06.2018
16:14:04
Привет всем! А подтолкните в сторону нужной документации, пожалуйста, а то беглое гугление не даёт нужных результатов. У меня есть deployment, который делает n pod`ов с одним контейнером. Внутри контейнера крутится приложенька, которая умеет отдавать метрики для prometheus. Как мне собрать эти метрики? Наткнулся на prometheus operator, который умеет снимать, как я понял, с сервиса, но мне-то нужно с каждого pod`a. Или я что-то неправильно читаю?

Vitaliy
19.06.2018
16:16:53
Ты можешь поднять просто пром, скормить ему конфиг для кубика, а в своем манифесте для деплоймента добавить аннотации, типа scrape: true и тд.

Alexandr
19.06.2018
16:19:02
о
ооо
спасибо

Fike
19.06.2018
16:41:38
"Цель Rancher – создание переносимых инфраструктурных сервисов вокруг Docker, включая эластичное блочное хранилище, виртуальные сети, отказоустойчивый балансировщик нагрузки, группы безопасности, мониторинг, сервисы баз данных и многое другое. "
это как так.. еще один слой виртуализации для сервисов инфры, типа nginx, *sql, для оверлейной сети, короче для экосистемы на которой уже будет жить набор докер микросервисов?
это оркестратор типа кубернетеса, только он не взлетел, а кубернетес взлетел, поэтому киллер фича, которую они продают - это запуск кубернетеса внутри ранчера, т.е. оркестратора внутри оркестратора