@kubernetes_ru

Страница 520 из 958
Valentin
17.04.2018
12:33:58
config.toml: | concurrent = {{ .Values.concurrent }} check_interval = {{ .Values.checkInterval }}

вот здесь похоже

там чёто типа coordinatorUrl

Andrey
17.04.2018
12:34:37
Нужно ли использовать разные кластеры для дев и прод? Или можно на одном в разных пространствах имён?
Пришел к выводу, что для облака проще и лучше разные кластеры, потому что control plane бесплатная.

Google
Valentin
17.04.2018
12:35:10
Пришел к выводу, что для облака проще и лучше разные кластеры, потому что control plane бесплатная.
у меня на vps тоже раздельные прод и дев. Так надёжнее. Понятнее.

Anton
17.04.2018
12:44:48
апну, может сегодня кто-то может знать в чем дело

Alexander
17.04.2018
12:46:43
там чёто типа coordinatorUrl
извинте, но не очень понятно каким образом изменить

Anton
17.04.2018
12:51:37
yaml покажи
https://pastebin.com/bDDjwBYM

Andrey
17.04.2018
12:53:27
а deployment? там порт объявлен? Напрямую к поду по ip пробовал подключаться, может, не в сервисе дело?

Valentin
17.04.2018
12:54:15
извинте, но не очень понятно каким образом изменить
попробуй заэкзекьются в под с раннером и выполни “gitlab-runner register”

Valentin
17.04.2018
12:56:54
извинте, но не очень понятно каким образом изменить
потом иди сюда “/etc/gitlab-runner/config.toml” и копируй что получилось в configMap

Anton
17.04.2018
12:57:54
Andrey
17.04.2018
12:59:16
то есть как?

сравните с тем же dns'ом

Anton
17.04.2018
13:01:18
у меня проблема не в том, что сервис недоступен, а в том что я не могу его сделать одновременно доступным и по TCP и по UDP. Одна из подсекций секции ports (которая ниже) всегда пропадает после kubectl apply

Google
Anton
17.04.2018
13:02:03
то есть вот применяю я тот манифест, что скинул, а на выходе только: - name: s-tcp port: 5201 protocol: TCP targetPort: 5201

если поменяю блоки местами (перенесу UDP выше), то останется только UDP блок

Andrey
17.04.2018
13:03:34
а что пишет kubectl apply?

как запускаешь? всё подряд или только сервис?

Valentin
17.04.2018
13:05:15
да вот же https://github.com/kubernetes/kubernetes/issues/2995

Anton
17.04.2018
13:05:51
он пишет, что все хорошо. В общем, я разобрался. Я делал не совсем так, как я описывал. Я редактировал через kubectl edit svc <service name>, и добавлял вручную второй блок. Он не сохранялся. А сейчас я действительно попробовал применить через apply, и все заработало.

Valentin
17.04.2018
13:06:21
И чё прям работает по обоим протоколам?

Anton
17.04.2018
13:06:24
теперь я вижу: s ClusterIP 10.8.241.181 <none> 5201/TCP,5201/UDP

работает по обоим, да

Valentin
17.04.2018
13:06:45
странно, потомучто в интернетах везде пишут, что это невозможно)

Anton
17.04.2018
13:06:56
я тестирую через iperf, в одном поде у меня iperf3 -s, во втором iperf3 -uc s

то есть второй говорит, шли хосту "s" udp пакеты. но фишка в том, что они сначала договариваются по TCP о чем-то

Valentin
17.04.2018
13:08:08
может поэтому и работает?

Anton
17.04.2018
13:08:46
если создать только TCP или только UDP сервис, то "iperf3 -uc" ("u" means UDP) не работает

"iperf -c" (TCP default) работает если сервис TCP, но не работает если UDP

Valentin
17.04.2018
13:10:59
т.е. работает только iperf по TCP?

Anton
17.04.2018
13:11:41
еще раз: 1. iperf3 -c <host> слать хосту TCP пакеты 2. iperf3 -uc <host> слать хосту UDP пакеты 1 — работает если сервис TCP 2 — работает если сервис и TCP и UDP

причина того, что -uc работает только при условии, что TCP тоже доступен в том, что изначально клиент с сервером о чем-то договариваются по TCP и только потом клиент начинает слать UDP пакеты. Если договоренность по TCP не состоялась, клиент даже не пытается слать UDP

т.е. работает только iperf по TCP?
то есть я бы ответил: "совсем без TCP он не работает"

ну, кстати, может есть какие-то флаги, чтобы заставить

Google
Anton
17.04.2018
13:16:59
а вот с LoadBalancer на GKE не прокатило: cannot create an external load balancer with mix protocols

Valentin
17.04.2018
13:17:40
sudo nmap -p <port> -sU <host>

может он не будет договариваться по tcp и тоже пошлёт)

Alexander
17.04.2018
13:36:55
попробуй заэкзекьются в под с раннером и выполни “gitlab-runner register”
не выходит bash-3.2# kubectl get pods ... gitlab-gitlab-764bd7665-4hcxr 0/1 Running 10 51m gitlab-gitlab-runner-f7c85548-sdsqz 0/1 CrashLoopBackOff 13 51m ... kubectl exec -it gitlab-gitlab-runner-f7c85548-sdsqz /bin/bash error: unable to upgrade connection: container not found ("gitlab-gitlab-runner") если смотреть в дашборде, то такой лог у раннера + cp /scripts/config.toml /etc/gitlab-runner/ + /entrypoint register --non-interactive --executor kubernetes Running in system-mode. ERROR: Registering runner... failed runner=tQtCbx5U status=couldn't execute POST against http://gitlab-gitlab.default:8005/api/v4/runners: Post http://gitlab-gitlab.default:8005/api/v4/runners: dial tcp 10.233.20.115:8005: i/o timeout PANIC: Failed to register this runner. Perhaps you are having network problems сам же gitlab пишет Unable to mount volumes for pod "gitlab-gitlab-764bd7665-4hcxr_default(05537fb9-423c-11e8-898a-3ebe3629b41e)": timeout expired waiting for volumes to attach/mount for pod "default"/"gitlab-gitlab-764bd7665-4hcxr". list of unattached/unmounted volumes=[registry config] Readiness probe failed: Get http://10.233.95.11:8005/health_check?token=SXBAQichEJasbtDSygrD: dial tcp 10.233.95.11:8005: getsockopt: connection refused Back-off restarting failed container как быть?(

Andrey
17.04.2018
13:39:35
Где кубернетс развернут, какая сетка используется?

Vadim
17.04.2018
13:40:14
>list of unattached/unmounted volumes=[registry config] что эт за volume?

Valentin
17.04.2018
13:41:01
кстти, гитлаб хелм не создаёт volumes

а гитлаб сам работает вообще?

Jango
17.04.2018
13:43:05


Уже час жду в очереди на билд проекта

Valentin
17.04.2018
13:45:41
ыы ) логи смотрел в гитлабе? в раннерах?

Jango
17.04.2018
13:46:45
ыы ) логи смотрел в гитлабе? в раннерах?
Так вот тебе же тебе скрин с графаны гитлаба

Всем вдруг резко понадобилось билдить

Valentin
17.04.2018
13:47:29
это только количества, тут нет логов с ошибками, например

может у тя раннеры до гитлаба не могут достучаться, может сертифкаты протухли, может места нет на диске, может РКН заблокировал

Valentin
17.04.2018
13:49:41
паблик = shared?

Jango
17.04.2018
13:49:46
Да

Valentin
17.04.2018
13:50:02
они тоже подвержены поломкам - тоже люди

Google
Jango
17.04.2018
13:50:36
они тоже подвержены поломкам - тоже люди
Молодой человек, не видите - у нас обед!

Alexander
17.04.2018
14:02:05
кстти, гитлаб хелм не создаёт volumes
bash-3.2# kubectl get pvc NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE gitlab-gitlab-config-storage Bound pvc-9bc93ba9-4247-11e8-b500-3e30cf2cd22a 1Gi RWO openebs-standard 1m gitlab-gitlab-postgresql-storage Bound pvc-9bd16473-4247-11e8-b500-3e30cf2cd22a 10Gi RWO openebs-standard 1m gitlab-gitlab-redis-storage Bound pvc-9bd51b82-4247-11e8-b500-3e30cf2cd22a 5Gi RWO openebs-standard 1m gitlab-gitlab-registry-storage Bound pvc-9bca8946-4247-11e8-b500-3e30cf2cd22a 10Gi RWO openebs-standard 1m gitlab-gitlab-storage Bound pvc-9bccd5cd-4247-11e8-b500-3e30cf2cd22a 10Gi RWO openebs-standard 1m

кстти, гитлаб хелм не создаёт volumes
как я понял тут указывается какой тип использовать в values.yaml gitlabConfigStorageClass: openebs-standard gitlabDataStorageClass: openebs-standard gitlabRegistryStorageClass: openebs-standard postgresStorageClass: openebs-standard redisStorageClass: openebs-standard

Valentin
17.04.2018
14:11:46
я вот буквально пару недель назад ставил хелмом гитлаб - у меня всё иначе было. (потом снёс к чертям, поставил всё руками)

посмотри не клеймы , а сами volumes

клеймы могут быть bound с вольюмами, но при этом вольюмы не могут работать, потомучто на бэке нет хранилища, например

Alexander
17.04.2018
14:22:07
посмотри не клеймы , а сами volumes
вот так у меня bash-3.2# kubectl get sc NAME PROVISIONER AGE default external/digitalocean 4d gitlab-gitlab-fast kubernetes.io/openebs-standard 16m openebs-cassandra openebs.io/provisioner-iscsi 23h openebs-es-data-sc openebs.io/provisioner-iscsi 23h openebs-jupyter openebs.io/provisioner-iscsi 23h openebs-kafka openebs.io/provisioner-iscsi 23h openebs-mongodb openebs.io/provisioner-iscsi 23h openebs-percona openebs.io/provisioner-iscsi 23h openebs-redis openebs.io/provisioner-iscsi 23h openebs-standalone openebs.io/provisioner-iscsi 23h openebs-standard openebs.io/provisioner-iscsi 23h openebs-zk openebs.io/provisioner-iscsi 23h

только вот это как не смотрится на фоне gitlab-gitlab-fast kubernetes.io/openebs-standard 16m

Valentin
17.04.2018
14:35:29
по хелму?

Let Eat
17.04.2018
14:37:19
Не поднимайте etcd2, лучше etcd 3.2

Alexander
17.04.2018
14:44:08
по хелму?
не, по тому как все это дело поднять без helm

Valentin
17.04.2018
14:47:37
боюсь, тут нет туториала. Всё зависит от потребностей и прочее, прочее…

Artem
17.04.2018
14:47:38
Привет. Был у кого то кейс с GKE и шифроваными KMS вольюмами в pvc?

Alexander
17.04.2018
14:50:30
Где кубернетс развернут, какая сетка используется?
кубер развернут в Digital Ocena сетка calicio NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE gitlab-gitlab ClusterIP 10.233.51.96 <none> 22/TCP,8065/TCP,8105/TCP,8005/TCP,9090/TCP,80/TCP 7m gitlab-gitlab-postgresql ClusterIP 10.233.6.170 <none> 5432/TCP 7m gitlab-gitlab-redis ClusterIP 10.233.43.62 <none> 6379/TCP 7m

Valentin
17.04.2018
14:52:11
что-то многовато портов для гитлаба. Обычно два - 22 и 80

Andrey
17.04.2018
14:54:31
Я с do дела не имел, но у меня calico на aws. Словил граблей с тем, что забыл разрешить хождение внутри сети ipv4 пакетов, ipip и еще чего-то

Нутыпонял

Banschikov
17.04.2018
14:56:27
Народ а подскажите, где можно про calico почитать простым языком?

Alexander
17.04.2018
14:56:36
что-то многовато портов для гитлаба. Обычно два - 22 и 80
cat templates/gitlab/gitlab-deployment.yaml ports: - name: registry containerPort: 8105 - name: mattermost containerPort: 8065 - name: workhorse containerPort: 8005 - name: ssh containerPort: 22 - name: prometheus containerPort: 9090 {{- if and .Values.pagesExternalScheme .Values.pagesExternalDomain }} - name: pages containerPort: 8090 {{- end }}

Google
Banschikov
17.04.2018
14:56:46
и вообще что лучше calico или flannel?

Valentin
17.04.2018
14:57:56
у меня была фланель, она барахлила периодически (на одной ноде, без нагрузок), конфиг куда-то пропадал - поставил калику, всё стало ок.

Alexander
17.04.2018
15:00:36
боюсь, тут нет туториала. Всё зависит от потребностей и прочее, прочее…
мне нужно для чтобы затем построить CI/CD на этом всем Gitlab / Kubernetes / Helm

Valentin
17.04.2018
15:01:54
случайно не на файл окружения ругалась?
возможно. Ругался толи kubedns, толи kubeproxy.

наверное kubedns, потомучто я и от него избавился

причём на intel xeon, потомучто на intel core такого не было

Banschikov
17.04.2018
15:05:33
Valentin
17.04.2018
15:05:36
coredns

Banschikov
17.04.2018
15:06:17
coredns
Как докер контейнер запускается? Как происходит интеграция?

Valentin
17.04.2018
15:08:15
Как докер контейнер запускается? Как происходит интеграция?
да, в контейнере. Я ставил через kubeadm, поэтому при установке сразу указал, что вместо kubedns юзать coredns, но вроде есть варианты миграции, которые даже конфиги конвертят

Banschikov
17.04.2018
15:09:29
Спасибо за инфу

Alexey
17.04.2018
15:11:05
кубер развернут в Digital Ocena сетка calicio NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE gitlab-gitlab ClusterIP 10.233.51.96 <none> 22/TCP,8065/TCP,8105/TCP,8005/TCP,9090/TCP,80/TCP 7m gitlab-gitlab-postgresql ClusterIP 10.233.6.170 <none> 5432/TCP 7m gitlab-gitlab-redis ClusterIP 10.233.43.62 <none> 6379/TCP 7m
Привет, а у тебя вообще связь между подами на ДО есть? кроме гитлаба что-нибудь там запускал? Просто ты пишешь, что сеть у тебя на салико, а она по л3 работает, и если ты не делал этого поверх какого-нибудь инкапсулирующего протокола, то сеть работать не будет

например заходишь в конейнер на одной ноде и пытаешься пингануть контейнер на другой ноде - это работает?

Alexander
17.04.2018
15:18:10

Страница 520 из 958