@kubernetes_ru

Страница 552 из 958
Uncle
08.05.2018
08:28:42
Благодарю, пойду гуглить

Kanat
08.05.2018
08:29:41
И всё же кто по rancher подскажет?

Не могу понять где брать ключи авторизации, хочу кластер поднять и настраиваю yml файл сейчас

Андрэ
08.05.2018
08:36:27
Товарищи, я правильно понимаю, что пока не задеплоен прометей-оператор, кубер не знает его api Error: apiVersion "monitoring.coreos.com/v1" А как правльно делать чтоб одновременно деплоить все helm-ом?

Google
Andor
08.05.2018
08:39:01
запиливать всё вместе в одном манифесте

хз про хельм

Андрэ
08.05.2018
08:39:15
так лежит в одном манифесте, в том и дело

на миникубе вроде ок все съело

Nick
08.05.2018
08:39:38
Тоже интересно
Понял. Сообщу тогда в чат если что-то пойдет не так ))

Андрэ
08.05.2018
08:39:43
а на DO кластер поднял, и туда почему то не захотело

Александр
08.05.2018
09:42:26
колеги добрый день. Проблема с Centos7 и запуском kubelet. Он просто не стартует. В инете нашел инфу что нужно поправить файл /etc/systemd/system/kubelet.service.d/10-kubeadm.conf , KUBELET_CGROUP_ARGS=--cgroup-driver=systemd на строку KUBELET_CGROUP_ARGS=--cgroup-driver=cgroupfs

но не помогло

V
08.05.2018
09:44:17
где почитать про структуру кубернетеса в кратце?

V
08.05.2018
09:45:28
Matvey
08.05.2018
09:47:55
(Disclaimer: I am not a software engineer. I am just someone with a background in economics who is deeply inquisitive about everything containers and K8s!)

Google
Александр
08.05.2018
09:58:20
http://paste.openstack.org/show/720550/

Вот что пишет journalctl -xeu kubelet

Igor
08.05.2018
09:59:40
ну вот там и написано unable to load client CA file /etc/kubernetes/pki/ca.crt: open /etc/kubernetes/pki/ca.crt: no such file or directory

Александр
08.05.2018
10:04:17
ну вот там и написано unable to load client CA file /etc/kubernetes/pki/ca.crt: open /etc/kubernetes/pki/ca.crt: no such file or directory
Блин сори,извиняюсь. не заметил. Моя же не внимательность

Harry
08.05.2018
10:20:43
возможно, смотри service c типом ClusterIP
Я, кстати, сразу на это наткнулся. Но оф.дока рекомендует NodePort юзать для bare metal, хотя я не думаю, что это ок. Тут же назревает вопрос: это нормально сервису насильно прописывать externalIPs? В доках не нашел ничего, но без этого не работает.

Valentin
08.05.2018
10:22:24
нормально

главное, чтобы он в пул дозволенности попадал

Harry
08.05.2018
10:36:27
Ок, спасибо.

Vasilyev
08.05.2018
10:42:09
Почему?
Ну я, например, не знаю ни одной плюхи ранчера над кубернетесом.

Kanat
08.05.2018
10:43:01
Ну я, например, не знаю ни одной плюхи ранчера над кубернетесом.
Вроде как он просто помогает ставить куьернетес кластер

Vasilyev
08.05.2018
10:43:47
Уххх, как по мне, так это слишком сурово)

У вас облако под кубиками или бареметалл?

Alexander
08.05.2018
10:45:25
Добрый день! Никто не сталкивался с проблемой использования git clone (over ssh) при инсталяции gitlab в kubernetes?

Sergey
08.05.2018
10:46:34
я пытался это сделать через dapp, dapp у меня виснет на этапе клонирования энтрипоинт-скрипта из гитлаба, из гитхаба по https изи заходит

Fike
08.05.2018
10:46:39
какая ошибка?

Andor
08.05.2018
10:47:36
а ингресс для ssh хорошо работает?

Igor
08.05.2018
10:48:26
https://github.com/kubernetes/ingress-nginx/issues/1823

Google
Andor
08.05.2018
10:48:47
особенно нжинкс

Igor
08.05.2018
10:49:10
ну это tcp стриминг

Alexander
08.05.2018
10:52:12
а на ingress 22 порт открыт?
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE default-http-backend ClusterIP 10.233.56.166 <none> 80/TCP 1h nginx LoadBalancer 10.233.13.136 x.x.x.x 80:32232/TCP,443:30140/TCP,22:30444/TCP 1h открыт, остальное работает ssh - нет

Igor
08.05.2018
10:54:29
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE default-http-backend ClusterIP 10.233.56.166 <none> 80/TCP 1h nginx LoadBalancer 10.233.13.136 x.x.x.x 80:32232/TCP,443:30140/TCP,22:30444/TCP 1h открыт, остальное работает ssh - нет
containers: - name: nginx-ingress-controller image: quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.14.0 args: - /nginx-ingress-controller - --default-backend-service=$(POD_NAMESPACE)/default-http-backend - --configmap=$(POD_NAMESPACE)/nginx-configuration - --tcp-services-configmap=$(POD_NAMESPACE)/tcp-services - --udp-services-configmap=$(POD_NAMESPACE)/udp-services - --annotations-prefix=nginx.ingress.kubernetes.io в конфиге ingress Deployment есть —tcp-services-configmap=$(POD_NAMESPACE)/tcp-services?

Fike
08.05.2018
10:54:36
https://github.com/genuinetools/img очередной походу

Kanat
08.05.2018
10:55:37
Igor
08.05.2018
10:55:41
и должен быть kind: ConfigMap apiVersion: v1 metadata: name: tcp-services namespace: ingress-nginx data: 30002: "gitlab/gitlab-ce:22"

в namespace ingress controller

Ivan
08.05.2018
10:56:22
А как принято stdout логи собирать из всех pod ? StackDriver?

Igor
08.05.2018
10:56:44
@nicksonet и вообще надо почитать лог ingress

Vasilyev
08.05.2018
11:12:59
Esxi 6.5 А чем именно сурово?
Избыточностью. А чем не угодил кубеспрей?

Andrey
08.05.2018
11:21:16
А как принято stdout логи собирать из всех pod ? StackDriver?
Тоже интересует. Кто как логи собирает ? Мы в сторону fluind пока что смотрим ...

Valentin
08.05.2018
11:23:07
а должен быть ещё ingress controller

kubectl get deployments —all-namespaces | grep ingress

фигани так

Alexander
08.05.2018
11:28:50
kubectl get deployments —all-namespaces | grep ingress
kubectl get deploy --all-namespaces | grep ingres nginx-ingress default-http-backend 1 1 1 1 2h

Valentin
08.05.2018
11:29:27
странно, что у тебя есть дефолт-бэкенд, а самого контроллера нет

по какой инструкции сетапил?

Google
Vasilyev
08.05.2018
11:33:55
По офф)) там нет этого шага)

Alexander
08.05.2018
11:35:52
по какой инструкции сетапил?
ставил я его вместе с helm gitlab а

Valentin
08.05.2018
11:36:37
helm gitlab наверное думает, что ты потом через интеграцию с кубиком поставишь ингресс контроллер

хотя, я когда хелмом ставил, он прометеус, например, сам поставил, хотя такая опция есть в интеграции с кубиком

мутная ситуация какаято)

bebebe
08.05.2018
11:41:04
А как принято stdout логи собирать из всех pod ? StackDriver?
я наконец то добрался до env'а где мы логи собирали https://github.com/wercker/stern вот этой тулзой

Ivan
08.05.2018
11:42:11
Спасибо!

Kanat
08.05.2018
11:42:47
Избыточностью. А чем не угодил кубеспрей?
Показалось что rancher еще проще в установке. Куберспрей уже попробовал хотел посмотреть на рэнчер

Alexander
08.05.2018
11:47:24
Valentin
08.05.2018
11:50:02
а блин, так он демон сетом просто

вот чем плохо ставить чужой приклад хелмом

Alexander
08.05.2018
11:50:51
ну т.е. как я понимаю, контроллер у меня вот: kubectl get pods -n nginx-ingress NAME READY STATUS RESTARTS AGE default-http-backend-69c767b879-mch9g 1/1 Running 0 2h nginx-2chxz 1/1 Running 0 2h nginx-4ps77 1/1 Running 0 2h nginx-67pl6 1/1 Running 0 2h

Valentin
08.05.2018
11:51:09
да. Аж целых три

Alexander
08.05.2018
11:51:29
вот чем плохо ставить чужой приклад хелмом
да так то я перекопал его уже почти весь) как роденой мне стал)

да. Аж целых три
осталось понять, отчего у меня git clone по ssh не работает

Valentin
08.05.2018
11:52:48
а это есть? nginx-ingress/tcp-ports

Vasilyev
08.05.2018
11:54:04
А что говорит тцпдамп? Трафик есть?

Alexander
08.05.2018
11:55:12
а это есть? nginx-ingress/tcp-ports
извини, это где посмотреть?

Valentin
08.05.2018
11:55:32
конфигМэп

Google
Alexander
08.05.2018
11:58:21
конфигМэп
тако вот он у меня kubectl get cm nginx -n nginx-ingress -o yaml apiVersion: v1 data: enable-vts-status: "true" hsts-include-subdomains: "false" proxy-body-size: 1024m proxy-connect-timeout: "15" proxy-read-timeout: "600" proxy-send-timeout: "600" server-name-hash-bucket-size: "256" kind: ConfigMap metadata: name: nginx namespace: nginx-ingress resourceVersion: "555998" selfLink: /api/v1/namespaces/nginx-ingress/configmaps/nginx

Valentin
08.05.2018
12:05:26
тут нет того самого мэпинга портов

если я не ошибаюсь, он должен быть именно здесь.

Alexander
08.05.2018
12:07:11
тут нет того самого мэпинга портов
те нужно сделать как-то так? data: 22: "default/gitlab:22"

Valentin
08.05.2018
12:07:17
да

только 22 порт у тебя наверное занят хостовым ssh

Alexander
08.05.2018
12:08:40
только 22 порт у тебя наверное занят хостовым ssh
ну вот собственно то и вопрос в этом) я не особо понял как реализовать такую фичу)

только 22 порт у тебя наверное занят хостовым ssh
могу ли я сменить у хоста номер порта? те не отвалится ли эта нода от кластера? и вообще, могут ли хост и сервис гитлаба юзать один порт?

Andor
08.05.2018
12:14:08
зависит от того как сеть реализована наверное

или ты через хостпорт хотел?

я возможно пропустил эту часть обсуждения

Valentin
08.05.2018
12:15:42
как насчёт кастомного порта для гитлаба, а не хоста?

Alexander
08.05.2018
12:16:50
Valentin
08.05.2018
12:16:57
сетевуха одна?

Страница 552 из 958