
Valentin
17.04.2018
12:33:58
config.toml: |
concurrent = {{ .Values.concurrent }}
check_interval = {{ .Values.checkInterval }}
вот здесь похоже
там чёто типа coordinatorUrl

Andrey
17.04.2018
12:34:37

Google

Valentin
17.04.2018
12:35:10

Anton
17.04.2018
12:44:48
апну, может сегодня кто-то может знать в чем дело

Alexander
17.04.2018
12:46:43

Andrey
17.04.2018
12:48:30

Anton
17.04.2018
12:51:37

Andrey
17.04.2018
12:53:27
а deployment? там порт объявлен? Напрямую к поду по ip пробовал подключаться, может, не в сервисе дело?

Valentin
17.04.2018
12:54:15

Anton
17.04.2018
12:54:46

Valentin
17.04.2018
12:56:54

Anton
17.04.2018
12:57:54

Andrey
17.04.2018
12:59:16
то есть как?
сравните с тем же dns'ом

Anton
17.04.2018
13:01:18
у меня проблема не в том, что сервис недоступен, а в том что я не могу его сделать одновременно доступным и по TCP и по UDP. Одна из подсекций секции ports (которая ниже) всегда пропадает после kubectl apply

Google

Anton
17.04.2018
13:02:03
то есть вот применяю я тот манифест, что скинул, а на выходе только:
- name: s-tcp
port: 5201
protocol: TCP
targetPort: 5201
если поменяю блоки местами (перенесу UDP выше), то останется только UDP блок

Andrey
17.04.2018
13:03:34
а что пишет kubectl apply?
как запускаешь? всё подряд или только сервис?

Valentin
17.04.2018
13:05:15
да вот же
https://github.com/kubernetes/kubernetes/issues/2995

Anton
17.04.2018
13:05:51
он пишет, что все хорошо. В общем, я разобрался. Я делал не совсем так, как я описывал. Я редактировал через kubectl edit svc <service name>, и добавлял вручную второй блок. Он не сохранялся. А сейчас я действительно попробовал применить через apply, и все заработало.

Valentin
17.04.2018
13:06:21
И чё прям работает по обоим протоколам?

Anton
17.04.2018
13:06:24
теперь я вижу:
s ClusterIP 10.8.241.181 <none> 5201/TCP,5201/UDP
работает по обоим, да

Valentin
17.04.2018
13:06:45
странно, потомучто в интернетах везде пишут, что это невозможно)

Anton
17.04.2018
13:06:56
я тестирую через iperf, в одном поде у меня iperf3 -s, во втором iperf3 -uc s
то есть второй говорит, шли хосту "s" udp пакеты. но фишка в том, что они сначала договариваются по TCP о чем-то

Valentin
17.04.2018
13:08:08
может поэтому и работает?

Anton
17.04.2018
13:08:46
если создать только TCP или только UDP сервис, то "iperf3 -uc" ("u" means UDP) не работает
"iperf -c" (TCP default) работает если сервис TCP, но не работает если UDP

Valentin
17.04.2018
13:10:59
т.е. работает только iperf по TCP?

Anton
17.04.2018
13:11:41
еще раз:
1. iperf3 -c <host> слать хосту TCP пакеты
2. iperf3 -uc <host> слать хосту UDP пакеты
1 — работает если сервис TCP
2 — работает если сервис и TCP и UDP
причина того, что -uc работает только при условии, что TCP тоже доступен в том, что изначально клиент с сервером о чем-то договариваются по TCP и только потом клиент начинает слать UDP пакеты. Если договоренность по TCP не состоялась, клиент даже не пытается слать UDP
ну, кстати, может есть какие-то флаги, чтобы заставить

Google

Anton
17.04.2018
13:16:59
а вот с LoadBalancer на GKE не прокатило:
cannot create an external load balancer with mix protocols

Valentin
17.04.2018
13:17:40
sudo nmap -p <port> -sU <host>
может он не будет договариваться по tcp и тоже пошлёт)


Alexander
17.04.2018
13:36:55
попробуй заэкзекьются в под с раннером и выполни “gitlab-runner register”
не выходит
bash-3.2# kubectl get pods
...
gitlab-gitlab-764bd7665-4hcxr 0/1 Running 10 51m
gitlab-gitlab-runner-f7c85548-sdsqz 0/1 CrashLoopBackOff 13 51m
...
kubectl exec -it gitlab-gitlab-runner-f7c85548-sdsqz /bin/bash
error: unable to upgrade connection: container not found ("gitlab-gitlab-runner")
если смотреть в дашборде, то такой лог у раннера
+ cp /scripts/config.toml /etc/gitlab-runner/
+ /entrypoint register --non-interactive --executor kubernetes
Running in system-mode.
ERROR: Registering runner... failed runner=tQtCbx5U status=couldn't execute POST against http://gitlab-gitlab.default:8005/api/v4/runners: Post http://gitlab-gitlab.default:8005/api/v4/runners: dial tcp 10.233.20.115:8005: i/o timeout
PANIC: Failed to register this runner. Perhaps you are having network problems
сам же gitlab пишет
Unable to mount volumes for pod "gitlab-gitlab-764bd7665-4hcxr_default(05537fb9-423c-11e8-898a-3ebe3629b41e)": timeout expired waiting for volumes to attach/mount for pod "default"/"gitlab-gitlab-764bd7665-4hcxr". list of unattached/unmounted volumes=[registry config]
Readiness probe failed: Get http://10.233.95.11:8005/health_check?token=SXBAQichEJasbtDSygrD: dial tcp 10.233.95.11:8005: getsockopt: connection refused
Back-off restarting failed container
как быть?(


Andrey
17.04.2018
13:39:35
Где кубернетс развернут, какая сетка используется?

Vadim
17.04.2018
13:40:14
>list of unattached/unmounted volumes=[registry config]
что эт за volume?

Valentin
17.04.2018
13:41:01
кстти, гитлаб хелм не создаёт volumes
а гитлаб сам работает вообще?

Jango
17.04.2018
13:43:05
Уже час жду в очереди на билд проекта

Valentin
17.04.2018
13:45:41
ыы ) логи смотрел в гитлабе? в раннерах?

Jango
17.04.2018
13:46:45
Всем вдруг резко понадобилось билдить

Valentin
17.04.2018
13:47:29
это только количества, тут нет логов с ошибками, например
может у тя раннеры до гитлаба не могут достучаться, может сертифкаты протухли, может места нет на диске, может РКН заблокировал

Jango
17.04.2018
13:48:50

Valentin
17.04.2018
13:49:41
паблик = shared?

Jango
17.04.2018
13:49:46
Да

Valentin
17.04.2018
13:50:02
они тоже подвержены поломкам - тоже люди

Google

Jango
17.04.2018
13:50:36


Alexander
17.04.2018
14:02:05
кстти, гитлаб хелм не создаёт volumes
bash-3.2# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
gitlab-gitlab-config-storage Bound pvc-9bc93ba9-4247-11e8-b500-3e30cf2cd22a 1Gi RWO openebs-standard 1m
gitlab-gitlab-postgresql-storage Bound pvc-9bd16473-4247-11e8-b500-3e30cf2cd22a 10Gi RWO openebs-standard 1m
gitlab-gitlab-redis-storage Bound pvc-9bd51b82-4247-11e8-b500-3e30cf2cd22a 5Gi RWO openebs-standard 1m
gitlab-gitlab-registry-storage Bound pvc-9bca8946-4247-11e8-b500-3e30cf2cd22a 10Gi RWO openebs-standard 1m
gitlab-gitlab-storage Bound pvc-9bccd5cd-4247-11e8-b500-3e30cf2cd22a 10Gi RWO openebs-standard 1m
кстти, гитлаб хелм не создаёт volumes
как я понял тут указывается какой тип использовать
в values.yaml
gitlabConfigStorageClass: openebs-standard
gitlabDataStorageClass: openebs-standard
gitlabRegistryStorageClass: openebs-standard
postgresStorageClass: openebs-standard
redisStorageClass: openebs-standard


Valentin
17.04.2018
14:11:46
я вот буквально пару недель назад ставил хелмом гитлаб - у меня всё иначе было. (потом снёс к чертям, поставил всё руками)
посмотри не клеймы , а сами volumes
клеймы могут быть bound с вольюмами, но при этом вольюмы не могут работать, потомучто на бэке нет хранилища, например


Alexander
17.04.2018
14:22:07
посмотри не клеймы , а сами volumes
вот так у меня
bash-3.2# kubectl get sc
NAME PROVISIONER AGE
default external/digitalocean 4d
gitlab-gitlab-fast kubernetes.io/openebs-standard 16m
openebs-cassandra openebs.io/provisioner-iscsi 23h
openebs-es-data-sc openebs.io/provisioner-iscsi 23h
openebs-jupyter openebs.io/provisioner-iscsi 23h
openebs-kafka openebs.io/provisioner-iscsi 23h
openebs-mongodb openebs.io/provisioner-iscsi 23h
openebs-percona openebs.io/provisioner-iscsi 23h
openebs-redis openebs.io/provisioner-iscsi 23h
openebs-standalone openebs.io/provisioner-iscsi 23h
openebs-standard openebs.io/provisioner-iscsi 23h
openebs-zk openebs.io/provisioner-iscsi 23h
только вот это как не смотрится на фоне
gitlab-gitlab-fast kubernetes.io/openebs-standard 16m

Valentin
17.04.2018
14:35:29
по хелму?

Let Eat
17.04.2018
14:37:19
Не поднимайте etcd2, лучше etcd 3.2

Alexander
17.04.2018
14:44:08
по хелму?
не, по тому как все это дело поднять без helm

Valentin
17.04.2018
14:47:37
боюсь, тут нет туториала. Всё зависит от потребностей и прочее, прочее…

Artem
17.04.2018
14:47:38
Привет. Был у кого то кейс с GKE и шифроваными KMS вольюмами в pvc?

Alexander
17.04.2018
14:50:30
Где кубернетс развернут, какая сетка используется?
кубер развернут в Digital Ocena
сетка calicio
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
gitlab-gitlab ClusterIP 10.233.51.96 <none> 22/TCP,8065/TCP,8105/TCP,8005/TCP,9090/TCP,80/TCP 7m
gitlab-gitlab-postgresql ClusterIP 10.233.6.170 <none> 5432/TCP 7m
gitlab-gitlab-redis ClusterIP 10.233.43.62 <none> 6379/TCP 7m

Valentin
17.04.2018
14:52:11
что-то многовато портов для гитлаба. Обычно два - 22 и 80

Andrey
17.04.2018
14:54:31
Я с do дела не имел, но у меня calico на aws. Словил граблей с тем, что забыл разрешить хождение внутри сети ipv4 пакетов, ipip и еще чего-то
Нутыпонял

Banschikov
17.04.2018
14:56:27
Народ а подскажите, где можно про calico почитать простым языком?

Alexander
17.04.2018
14:56:36
что-то многовато портов для гитлаба. Обычно два - 22 и 80
cat templates/gitlab/gitlab-deployment.yaml
ports:
- name: registry
containerPort: 8105
- name: mattermost
containerPort: 8065
- name: workhorse
containerPort: 8005
- name: ssh
containerPort: 22
- name: prometheus
containerPort: 9090
{{- if and .Values.pagesExternalScheme .Values.pagesExternalDomain }}
- name: pages
containerPort: 8090
{{- end }}

Google

Banschikov
17.04.2018
14:56:46
и вообще что лучше calico или flannel?

Valentin
17.04.2018
14:57:56
у меня была фланель, она барахлила периодически (на одной ноде, без нагрузок), конфиг куда-то пропадал - поставил калику, всё стало ок.

Anvarich
17.04.2018
14:59:12

Valentin
17.04.2018
15:00:20

Alexander
17.04.2018
15:00:36

Banschikov
17.04.2018
15:00:40

Valentin
17.04.2018
15:01:54
наверное kubedns, потомучто я и от него избавился
причём на intel xeon, потомучто на intel core такого не было

Banschikov
17.04.2018
15:05:33

Valentin
17.04.2018
15:05:36
coredns

Banschikov
17.04.2018
15:06:17
coredns
Как докер контейнер запускается? Как происходит интеграция?

Valentin
17.04.2018
15:08:15

Banschikov
17.04.2018
15:09:29
Спасибо за инфу

Alexey
17.04.2018
15:11:05
кубер развернут в Digital Ocena
сетка calicio
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
gitlab-gitlab ClusterIP 10.233.51.96 <none> 22/TCP,8065/TCP,8105/TCP,8005/TCP,9090/TCP,80/TCP 7m
gitlab-gitlab-postgresql ClusterIP 10.233.6.170 <none> 5432/TCP 7m
gitlab-gitlab-redis ClusterIP 10.233.43.62 <none> 6379/TCP 7m
Привет, а у тебя вообще связь между подами на ДО есть? кроме гитлаба что-нибудь там запускал?
Просто ты пишешь, что сеть у тебя на салико, а она по л3 работает, и если ты не делал этого поверх какого-нибудь инкапсулирующего протокола, то сеть работать не будет
например заходишь в конейнер на одной ноде и пытаешься пингануть контейнер на другой ноде - это работает?

Alexander
17.04.2018
15:18:10