@kubernetes_ru

Страница 629 из 958
Arslanbekov
19.06.2018
10:18:06
у нас под старые проекты еще крутится.. ушли на гитлаб
там вроде много $$$ надо чтобы > 1 кластера иметь

Andrey
19.06.2018
10:19:12
давно ставил?
в конце марта

Arslanbekov
19.06.2018
10:19:25
в конце марта
они там каждую неделю релизят что-то новое ?

Google
Andrey
19.06.2018
10:19:42
они там каждую неделю релизят что-то новое ?
из дженкинса довольно сложно сделать конфетку

Arslanbekov
19.06.2018
10:20:39
из дженкинса довольно сложно сделать конфетку
тут я с тобой полностью согласен. Гитлаб дорогой довольно, если у тебя не мало народу работает в компании и > 1 кластера хочешь заинтегрировать с ним. вопрос тогда, что еще?

Volodimir Fedorov
19.06.2018
10:21:28
Arslanbekov
19.06.2018
10:22:22
обходимся ce..
https://about.gitlab.com/pricing/ не вижу тут такого тарифа

Volodimir Fedorov
19.06.2018
10:22:44
https://gitlab.com/gitlab-org/gitlab-ce

это спец тариф для нищебродов

Arslanbekov
19.06.2018
10:23:37
?понятно, там нет же интеграции с кубером

Дмитрий
19.06.2018
10:23:38
как можно пересоздать kube-proxy на кластере?

Volodimir Fedorov
19.06.2018
10:23:43
отнюдь..

там очень даже есть интеграция с кубером)

Arslanbekov
19.06.2018
10:23:57
ну, да, согласен) есть, но ограничения больно душат

Ivan
19.06.2018
10:24:10
обходимся ce..
а чего вам лично очень сильно не хватает в СЕ? подумываю свалить с тимсити

Google
Arslanbekov
19.06.2018
10:24:12
там очень даже есть интеграция с кубером)
раннеры не в счет ? их можно хелмом ставить и руками коннектить

Volodimir Fedorov
19.06.2018
10:24:56
более гибких ролей не хватает

аналитику приходятся давать роль девелопера чтобы он мог вики например править..

Artemiy
19.06.2018
10:49:22
привет. у нас тут клуб по интересам, про Rancher https://t.me/rancher_ru . вступайте, если интересно

Stanislav
19.06.2018
10:54:13
Скотоводцы)

Vasilyev
19.06.2018
10:55:41
??

Sergey
19.06.2018
10:56:25
ковбои

M
19.06.2018
10:58:45
Ребят на сколько ещё swarm актуален для маленьких проектов, два - три - пять серверов

Artemiy
19.06.2018
11:00:13
xD

Vladimir
19.06.2018
11:01:34
https://soar.name/ru/pro/half-a-year-with-docker-swarm-mode-in-production/ Статья годичной давности, но вполне актуально и сейчас :)

M
19.06.2018
11:02:11
Хостов или контейнеров пять?
хостов до пяти, это максимум пока

Vladimir
19.06.2018
11:08:44
хочу такое же про кубы, срочна!
k8s сильно сложнее. да и это ж надо сидеть, писать. не каждый такое захочет делать)

Ivan
19.06.2018
11:09:29
k8s сильно сложнее. да и это ж надо сидеть, писать. не каждый такое захочет делать)
Я понимаю, но проблем точно немало я думаю. И автор же смог :) у него там всё структурно довольно

Vladimir
19.06.2018
11:10:00
проблем наверняка больше. просто их описать грамотно сложнее, потому как сложнее понять, что не так, и как это воспроизвести, чтобы ишью зарепортить.

Отчасти поэтому я пока на Nomad решил смотреть. С ним всё сильно проще, хотя и возможностей меньше. Но k8s тоже есть в планах.

Google
Михаил
19.06.2018
11:16:38
хочу такое же про кубы, срочна!
Что именно? Подводные камни?

Ivan
19.06.2018
11:16:48
А то все говорят, что кубы - стандарт, все дела. Но никто не говорит какой ценой он внедряет всё это добро. (ну ок, не никто) просто статья выше прям качественно отпугивает тебя от сворма.

kvaps
19.06.2018
11:30:20
https://hsto.org/getpro/habr/post_images/f9e/e70/e91/f9ee70e91340ff095e81f8d77ed7c458.png

Vasilyev
19.06.2018
11:47:19
бОян который не потеряет свою актуальность еще лет 5 точно ?

Banschikov
19.06.2018
12:00:01
Братцы! Аларм! Такой трабл в кубе происходит. Есть сервис ClusterIP 10.233.55.84 kubelet чекает этот сервис на livenessProbe. Выдает следущее: Liveness probe failed: dial tcp 10.233.94.86:9300: getsockopt: connection refused Начинаю дергать курлом ClusterIP, и по адресу ресурс доступен. Потом делаю тоже самое на адрес, по которому ломится kubelet. И там тоже сервис доступен.! Вообще ничего не понимаю.

No1
19.06.2018
12:01:57
только я вижу разные иП?

Banschikov
19.06.2018
12:02:33
только я вижу разные иП?
Аналогично. но по этим ip доступен мой сервис

только я вижу разные иП?
я х.з откуда кубелет берет второй адрес, но хелтчек он сделать не может, но по этому адресу ресурс доступен

Sergei
19.06.2018
12:03:55
это скорее всего адрес endpoint'а

health check же каждый pod опрашивает, а не весь сервис целиком

Banschikov
19.06.2018
12:06:14
health check же каждый pod опрашивает, а не весь сервис целиком
Точно, точно. А почему он его чекнуть не может? У меня просто один сервис из за этого не запускается.

Sergei
19.06.2018
12:07:21
никаких NetworkPolicy нету?

Banschikov
19.06.2018
12:08:45
Sergei
19.06.2018
12:11:13
а dnsmasq agent стоит? у меня было похожее, когда сетка кластера частично совпадала с офисной сеткой. ты крулом проверял где?

Denis
19.06.2018
13:16:45
народ магия какая то - кластер ДЕВ вырубился на ночь , с утра ни фига не работает ни один контейнер ни на мастере ни на воркерах не бежит . хз че проиходит , куда копать хоть

kubelet - бежит \ dockerd тоже . И все как бы

Google
Denis
19.06.2018
13:23:09
че там у etcd?
или не правильно смотрю или там ?

etcdctl --endpoints http://10.ххх.ххх.ххх:2380 cluster-health cluster may be unhealthy: failed to list members Error: client: etcd cluster is unavailable or misconfigured; error #0: net/http: HTTP/1.x transport connection broken: malformed HTTP response "\x15\x03\x01\x00\x02\x02" error #0: net/http: HTTP/1.x transport connection broken: malformed HTTP response "\x15\x03\x01\x00\x02\x02"

Andrey
19.06.2018
13:23:41
неправильно смотришь

Stanislav
19.06.2018
13:23:51
Кадилом поводит, водичкой сервачки сдобрит и все будет норм.

Admin
ERROR: S client not available

Sergey
19.06.2018
13:25:07
может передеплоить кластер?

Denis
19.06.2018
13:25:43
Sergey
19.06.2018
13:25:52
изза чего паника, всегда должен быть выход откатиться

а все пчаму? потому что мониторинга нет нормального так бы по алертам прошлись и все

Denis
19.06.2018
13:27:08
и у тебя что ли только одна нода etcd?
нее ,3 просто какая разница какую дергать для хелса

Andrey
19.06.2018
13:28:28
нее ,3 просто какая разница какую дергать для хелса
да и для начала можешь хотя бы просто kubectl get cs

Denis
19.06.2018
13:29:11
api is down , kubectl бесполезен

Andrey
19.06.2018
13:30:13
api is down , kubectl бесполезен
ну вот, значит время смотреть etcd, потом контроллер-менеджер, шедулер и аписервер

Sergey
19.06.2018
13:30:14


Ivan
19.06.2018
13:34:38
это прям хорошо, правильно

Denis
19.06.2018
13:35:07
пстц чет я не допру как итцд кластер инфо посмотреть, нашел на ноде - /etc/etcd.env . Все пиры и сертификаты там, но кластер хелс все равно ?

скажите , а порядок поднятия нодов важен?

Google
Yu
19.06.2018
13:36:00
ETCDCTL_API=3 etcdctl ...

Denis
19.06.2018
13:50:54
бля магия

короче походу нужно поднимать все по очередности - etcd => masters => workers

ну или волшебный ребут помог

всем спасибо

Andrey
19.06.2018
14:08:08
Вот чтобы не паниковать при аварии, стоит подтянуть матчасть, а особенно почитать внимательно про работу control plane в Kubernetes.

kubeadm или kubespray не сделает магии, когда всё развалилось.

Andrey
19.06.2018
14:10:14
Ребят, а ни у кого не было такого что долго отрабатывает resolve на внешние адреса внутри куба? (в сети хватает issues с этим)

Alexandr
19.06.2018
16:14:04
Привет всем! А подтолкните в сторону нужной документации, пожалуйста, а то беглое гугление не даёт нужных результатов. У меня есть deployment, который делает n pod`ов с одним контейнером. Внутри контейнера крутится приложенька, которая умеет отдавать метрики для prometheus. Как мне собрать эти метрики? Наткнулся на prometheus operator, который умеет снимать, как я понял, с сервиса, но мне-то нужно с каждого pod`a. Или я что-то неправильно читаю?

Vitaliy
19.06.2018
16:16:53
Ты можешь поднять просто пром, скормить ему конфиг для кубика, а в своем манифесте для деплоймента добавить аннотации, типа scrape: true и тд.

Alexandr
19.06.2018
16:19:02
о

ооо

спасибо

Страница 629 из 958