
Alexander
08.05.2018
12:20:13

Andor
08.05.2018
12:20:29
на одном и том же ip-адресе?

Alexander
08.05.2018
12:21:12

Andrey
08.05.2018
12:23:14

Google

Alexander
08.05.2018
12:24:19
есть способ
буду весьма благодарен за совет и инфу по реализации

Andrey
08.05.2018
12:24:27
ищу, ща
на хосте заводите отдельного юзера: git

Andor
08.05.2018
12:25:23
на прошлой работе у нас было два ip-адреса на хосте с битбакетом и на одном из них просто работал iptables в порт 2222 (который слушала жава)

Andrey
08.05.2018
12:26:14
у git настраиваете https://superuser.com/questions/277382/ssh-proxycommand-on-ssh-server-side?utm_medium=organic&utm_source=google_rich_qa&utm_campaign=google_rich_qa

Andor
08.05.2018
12:26:34
это будет некуберно как-то совсем

Andrey
08.05.2018
12:26:37
чтобы он заходил по кастомному порту gitlab
чтоб было куберно, вам лоад балансер нужен, который будет на сервис перекидывать

Alexander
08.05.2018
12:27:29

Valentin
08.05.2018
12:27:45
мне думается, проще в гитлаб по кастомному порту ходить)

Andor
08.05.2018
12:28:15
не, это точно херня идея :)
а какой-нибудь metallb?

Andrey
08.05.2018
12:28:57
два сервиса всё равно не могут делить один ip:port, если только у вас нет прокси, который умеет в протокол

Google

Andor
08.05.2018
12:29:38
есть хак у опенвпн на 443 порту, но он специфичный и по-сути там проксирование и вообще к делу мало относится :)

Alexander
08.05.2018
12:31:48

Andrey
08.05.2018
12:31:59
а, ещё можно haproxy использовать с send proxy
по разным именам в разные ssh попадать
https://superuser.com/questions/769040/haproxy-for-ssh-name-based-proxying?utm_medium=organic&utm_source=google_rich_qa&utm_campaign=google_rich_qa
haproxy поднять в кубере, в качестве бэкендов ssh на хосте и на гитлабе (оба на не 22 порту), в кубере поднять сервис на hostport 22

Andor
08.05.2018
12:34:38
ну ssh в гитлабе наверное пофиг где поднимать
смысле пофиг на каком порту

Andrey
08.05.2018
12:34:51
ну да
я думаю, что на сервак можно будет по ip, а в gitlab - по имени
но всё равно это изврат, я бы тупо перенёс ssh на хосте на 2222

Valentin
08.05.2018
12:37:06
а я бына гитлабе)

Andrey
08.05.2018
12:37:36
запаритесь end user'ам объяснять где в их софте порт проставлять
софт, который умеет в гит - он разнообразный

Valentin
08.05.2018
12:38:48
софт обычно по урлу работает
а урл включает в себя порт
просто если кроме гитлаба на хосте ещё много всего, то делать его королём стола - не очень круто

Jango
08.05.2018
12:40:37
Коллеги, может подскажете...
Есть несколько vm с coreos. Есть kubespray, который накатывается на эти ноды.
Затыкается при ```/usr/bin/docker pull quay.io/coreos/etcd:v3.2.4```
Ругается, что не может зарезольвить хост quay.io.
Делал
resolvconf_mode: host_resolvconf
, как написано в гайде, не помогает.
Есть идеи, как лечить?

Igor
08.05.2018
12:41:55

Andrey
08.05.2018
12:42:11
а эти вмки сами могут резолвить?

Google

Jango
08.05.2018
12:42:17
firewall?
Если прописываю ручками nameserver 8.8.8.8 всё работает и он пуллит образ

Andrey
08.05.2018
12:43:39
resolvconf_mode - это не для сервера, это для подов

Jango
08.05.2018
12:44:27

Andrey
08.05.2018
12:45:02
это вопрос?

Jango
08.05.2018
12:45:22

Andrey
08.05.2018
12:45:35
там нет такого
тут есть: https://github.com/kubernetes-incubator/kubespray/blob/master/docs/dns-stack.md#resolvconf_mode

Jango
08.05.2018
12:45:48
The default resolvconf_mode setting of docker_dns does not work for CoreOS. This is because we do not edit the systemd service file for docker on CoreOS nodes. Instead, just use the host_resolvconf mode. It should work out of the box

Andrey
08.05.2018
12:46:21
resolvconf_mode configures how Kubespray will setup DNS *for hostNetwork: true PODs and non-k8s containers*

Jango
08.05.2018
12:46:27
Ну не суть. Как лечить то?

Andrey
08.05.2018
12:46:45
вопрос мой выше видели?
настройте резолвинг на вмках
kubespray не занимается этим, он k8s разворачивает, а не подключение к интернету

Jango
08.05.2018
12:47:50

Igor
08.05.2018
12:48:00

Jango
08.05.2018
12:48:53
core@node1 ~ $ cat /etc/resolv.conf
# Ansible entries BEGIN
domain segmento.kuber
search default.svc.segmento.kuber svc.segmento.kuber
nameserver
options ndots:2
options timeout:2
options attempts:2

Alexander
08.05.2018
12:49:19

Jango
08.05.2018
12:49:50

Andrey
08.05.2018
12:50:12

Igor
08.05.2018
12:55:09

Google

Jango
08.05.2018
13:20:19

Алексей
08.05.2018
14:02:26
Приветствую коллеги.
Кто-то сталкивался с проблемой того, что rbd-provisioner не может создать rbd в ceph?
Что-то не получается понять из-за чего проблема.

Konstantin
08.05.2018
14:04:58
Версию ядра проверить надо. меньше 4.5 ?

Алексей
08.05.2018
14:10:12
на нодах?
4.16.7-1.el7.elrepo.x86_64
stopped trying to renew lease to provision for pvc production/data-redis-cluster-0, timeout reached
Вот ругается. Ранее проблемы были с RBAC - пофиксил. Сейчас непонятно что ему нужно.

Huan
08.05.2018
14:12:06
подскажите плз как заставить видеть поды друг друга?
есть деплоймент с репликой пода
создается два контейнера
но они друг друга не видят

Алексей
08.05.2018
14:17:18

Huan
08.05.2018
14:17:51
по имени пода
nifi-7b987c497b-vvmvs

Алексей
08.05.2018
14:18:21
из другого пода?

Huan
08.05.2018
14:18:28
да

Konstantin
08.05.2018
14:18:32
а версия ceph какая? для Luminous, на всех ceph нодах, если ядро меньше 4.5, нужно выполнить "ceph osd crush tunables hammer". k8s использует rbd модуль для мапинга волумов, и он есть только в ядрах >4.5

Huan
08.05.2018
14:18:48
пробовал так nifi-7b987c497b-vvmvs.namespace.kube.local

Алексей
08.05.2018
14:19:10

Vladimir
08.05.2018
14:19:54
вам нужно сделать headless service, тогда будет днс pod.svc.namespace.kube.local. еще можете использовать statefulset, тогда имена подов будут предсказуемые

Алексей
08.05.2018
14:19:57
https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/#pods

Google

Huan
08.05.2018
14:20:31
а как сделать чтоб они были доступны по nifi-7b987c497b-vvmvs.namespace.pod.kube.local?
как вытащить содержимое днс зоны?

Juriy
08.05.2018
14:25:35
Всем привет

Алексей
08.05.2018
14:25:38

Huan
08.05.2018
14:25:54

Алексей
08.05.2018
14:26:11

Huan
08.05.2018
14:26:17
да
и они должны видеть друг друга
это кластер и им нужно между собой обмениваться инфой

Алексей
08.05.2018
14:29:23
так по идее всё должно резолвится то через kube-dns

Huan
08.05.2018
14:30:07
не видят
по 1-2-3-4.namespace.pod.kube.local видят
а по хостнейму нет
может криво работает kube-dns?

Алексей
08.05.2018
14:35:08
Выше же написали - сделай headless сервис который собирает эти поды. И потом уже через него получай доступ по хостнеймам

Huan
08.05.2018
14:37:22
спасибо
не замеетил
попробую