@kubernetes_ru

Страница 553 из 958
Alexander
08.05.2018
12:20:13
или ты через хостпорт хотел?
мечтал о том, как один ssh порт юзать одновременно с хостом и с гитлабом в k8s

Andor
08.05.2018
12:20:29
на одном и том же ip-адресе?

Alexander
08.05.2018
12:21:12
на одном и том же ip-адресе?
нет, только на внешнем

Google
Alexander
08.05.2018
12:24:19
есть способ
буду весьма благодарен за совет и инфу по реализации

Andrey
08.05.2018
12:24:27
ищу, ща

на хосте заводите отдельного юзера: git

Andor
08.05.2018
12:25:23
на прошлой работе у нас было два ip-адреса на хосте с битбакетом и на одном из них просто работал iptables в порт 2222 (который слушала жава)

Andrey
08.05.2018
12:26:14
у git настраиваете https://superuser.com/questions/277382/ssh-proxycommand-on-ssh-server-side?utm_medium=organic&utm_source=google_rich_qa&utm_campaign=google_rich_qa

Andor
08.05.2018
12:26:34
это будет некуберно как-то совсем

Andrey
08.05.2018
12:26:37
чтобы он заходил по кастомному порту gitlab

чтоб было куберно, вам лоад балансер нужен, который будет на сервис перекидывать

Valentin
08.05.2018
12:27:45
мне думается, проще в гитлаб по кастомному порту ходить)

Andor
08.05.2018
12:28:15
не, это точно херня идея :)

а какой-нибудь metallb?

Andrey
08.05.2018
12:28:57
два сервиса всё равно не могут делить один ip:port, если только у вас нет прокси, который умеет в протокол

Google
Andor
08.05.2018
12:29:38
есть хак у опенвпн на 443 порту, но он специфичный и по-сути там проксирование и вообще к делу мало относится :)

Alexander
08.05.2018
12:31:48
Andrey
08.05.2018
12:31:59
а, ещё можно haproxy использовать с send proxy

по разным именам в разные ssh попадать

https://superuser.com/questions/769040/haproxy-for-ssh-name-based-proxying?utm_medium=organic&utm_source=google_rich_qa&utm_campaign=google_rich_qa

haproxy поднять в кубере, в качестве бэкендов ssh на хосте и на гитлабе (оба на не 22 порту), в кубере поднять сервис на hostport 22

Andor
08.05.2018
12:34:38
ну ssh в гитлабе наверное пофиг где поднимать

смысле пофиг на каком порту

Andrey
08.05.2018
12:34:51
ну да

я думаю, что на сервак можно будет по ip, а в gitlab - по имени

но всё равно это изврат, я бы тупо перенёс ssh на хосте на 2222

Valentin
08.05.2018
12:37:06
а я бына гитлабе)

Andrey
08.05.2018
12:37:36
запаритесь end user'ам объяснять где в их софте порт проставлять

софт, который умеет в гит - он разнообразный

Valentin
08.05.2018
12:38:48
софт обычно по урлу работает

а урл включает в себя порт

просто если кроме гитлаба на хосте ещё много всего, то делать его королём стола - не очень круто

Jango
08.05.2018
12:40:37
Коллеги, может подскажете... Есть несколько vm с coreos. Есть kubespray, который накатывается на эти ноды. Затыкается при ```/usr/bin/docker pull quay.io/coreos/etcd:v3.2.4``` Ругается, что не может зарезольвить хост quay.io. Делал resolvconf_mode: host_resolvconf , как написано в гайде, не помогает. Есть идеи, как лечить?

Andrey
08.05.2018
12:42:11
а эти вмки сами могут резолвить?

Google
Jango
08.05.2018
12:42:17
firewall?
Если прописываю ручками nameserver 8.8.8.8 всё работает и он пуллит образ

Andrey
08.05.2018
12:43:39
resolvconf_mode - это не для сервера, это для подов

Jango
08.05.2018
12:44:27
resolvconf_mode - это не для сервера, это для подов
https://github.com/kubernetes-incubator/kubespray/blob/master/docs/coreos.md

Andrey
08.05.2018
12:45:02
это вопрос?

Jango
08.05.2018
12:45:22
это вопрос?
Не, я показываю, про resolvconf_mode

Andrey
08.05.2018
12:45:35
там нет такого

тут есть: https://github.com/kubernetes-incubator/kubespray/blob/master/docs/dns-stack.md#resolvconf_mode

Jango
08.05.2018
12:45:48
The default resolvconf_mode setting of docker_dns does not work for CoreOS. This is because we do not edit the systemd service file for docker on CoreOS nodes. Instead, just use the host_resolvconf mode. It should work out of the box

Andrey
08.05.2018
12:46:21
resolvconf_mode configures how Kubespray will setup DNS *for hostNetwork: true PODs and non-k8s containers*

Jango
08.05.2018
12:46:27
Ну не суть. Как лечить то?

Andrey
08.05.2018
12:46:45
вопрос мой выше видели?

настройте резолвинг на вмках

kubespray не занимается этим, он k8s разворачивает, а не подключение к интернету

Jango
08.05.2018
12:47:50
а эти вмки сами могут резолвить?
Хорошая мысль, спасибо. Сейчас попробую

Igor
08.05.2018
12:48:00
Jango
08.05.2018
12:48:53
core@node1 ~ $ cat /etc/resolv.conf # Ansible entries BEGIN domain segmento.kuber search default.svc.segmento.kuber svc.segmento.kuber nameserver options ndots:2 options timeout:2 options attempts:2

Alexander
08.05.2018
12:49:19
просто если кроме гитлаба на хосте ещё много всего, то делать его королём стола - не очень круто
он у меня король) сменил порт на хосту, но буду копать дальше что-то найду - дам знать)

Andrey
08.05.2018
12:50:12
он у меня король) сменил порт на хосту, но буду копать дальше что-то найду - дам знать)
если будете haproxy с send proxy протоколом использовать и если получится - отпишитесь :)

Igor
08.05.2018
12:55:09
Вот почему nameserver пустует?
наверное вопрос к админу виртуалок)

Google
Алексей
08.05.2018
14:02:26
Приветствую коллеги. Кто-то сталкивался с проблемой того, что rbd-provisioner не может создать rbd в ceph? Что-то не получается понять из-за чего проблема.

Konstantin
08.05.2018
14:04:58
Версию ядра проверить надо. меньше 4.5 ?

Алексей
08.05.2018
14:10:12
на нодах? 4.16.7-1.el7.elrepo.x86_64

stopped trying to renew lease to provision for pvc production/data-redis-cluster-0, timeout reached Вот ругается. Ранее проблемы были с RBAC - пофиксил. Сейчас непонятно что ему нужно.

Huan
08.05.2018
14:12:06
подскажите плз как заставить видеть поды друг друга?

есть деплоймент с репликой пода

создается два контейнера

но они друг друга не видят

Алексей
08.05.2018
14:17:18
но они друг друга не видят
а как вы пытаетесь обращаться к ним?

Huan
08.05.2018
14:17:51
по имени пода

nifi-7b987c497b-vvmvs

Алексей
08.05.2018
14:18:21
из другого пода?

Huan
08.05.2018
14:18:28
да

Konstantin
08.05.2018
14:18:32
а версия ceph какая? для Luminous, на всех ceph нодах, если ядро меньше 4.5, нужно выполнить "ceph osd crush tunables hammer". k8s использует rbd модуль для мапинга волумов, и он есть только в ядрах >4.5

Huan
08.05.2018
14:18:48
пробовал так nifi-7b987c497b-vvmvs.namespace.kube.local

Vladimir
08.05.2018
14:19:54
вам нужно сделать headless service, тогда будет днс pod.svc.namespace.kube.local. еще можете использовать statefulset, тогда имена подов будут предсказуемые

Алексей
08.05.2018
14:19:57
https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/#pods

Google
Huan
08.05.2018
14:20:31
а как сделать чтоб они были доступны по nifi-7b987c497b-vvmvs.namespace.pod.kube.local?

как вытащить содержимое днс зоны?

Juriy
08.05.2018
14:25:35
Всем привет

Алексей
08.05.2018
14:25:38
Huan
08.05.2018
14:25:54
Алексей
08.05.2018
14:26:11
между подами пробую
изнутри пода, я правильно понимаю?

Huan
08.05.2018
14:26:17
да

и они должны видеть друг друга

это кластер и им нужно между собой обмениваться инфой

Алексей
08.05.2018
14:29:23
так по идее всё должно резолвится то через kube-dns

Huan
08.05.2018
14:30:07
не видят

по 1-2-3-4.namespace.pod.kube.local видят

а по хостнейму нет

может криво работает kube-dns?

Алексей
08.05.2018
14:35:08
Выше же написали - сделай headless сервис который собирает эти поды. И потом уже через него получай доступ по хостнеймам

Huan
08.05.2018
14:37:22
спасибо

не замеетил

попробую

Страница 553 из 958