
Andor
24.05.2018
15:40:44
а ты удаляешь тег или образ?

Dmytro
24.05.2018
15:40:48

Konstantin
24.05.2018
15:40:50
я как раз на этом этапе проверок)

Google

Dmytro
24.05.2018
15:41:09

Andor
24.05.2018
15:41:17
гитлаб же по-сути только авторизацию предоставляет для реджистри

Dmytro
24.05.2018
15:41:18
а удалится и иобраз и все теги

Andor
24.05.2018
15:41:22
а под ним обычный режистри

Dmytro
24.05.2018
15:41:28
ну в докер хабе такого треша нет

Andor
24.05.2018
15:41:34
чо правда?

Dmytro
24.05.2018
15:41:39
так что проблемы явно у гитлаба

Andor
24.05.2018
15:41:41
надо попробовать и если получится то завести баг

Dmytro
24.05.2018
15:41:57
у артифактори тоже нет насколько я знаю

Konstantin
24.05.2018
15:41:59

Fike
24.05.2018
15:42:03

Дмитрий
24.05.2018
15:44:17

Konstantin
24.05.2018
15:45:07

Google

Dmytro
24.05.2018
15:45:27
ну тут хз, докер хаб и ECR амазоновский ведут себя норм, артефактори я юзал самую малость но вроде там тоже норм
гитлаб же за много денег а говно куда не ткни :(
сорри за оффтоп, просто крик души

Andor
24.05.2018
15:47:02
ты баги-то им завёл?
я хз про ынтырпрайз версию, но гитлаб всё равно лучший из бесплатных пока что

Anton
24.05.2018
15:47:49

Dmytro
24.05.2018
15:50:25
я им заводил тикет про импорт с гитхаба, после ответа через 3 дня вместо положеннх 4 часов решил больше не тратить свое время, все - конец оффтопа


Alex
24.05.2018
16:46:22
Господа знатоки, всем доброго времени суток!
Есть немного глупый вопрос, и, по правде говоря - не особо уверен, что он должен быть адресован именно сюда, но мы никак не можем порешать. Суть ситуации: есть GKE кластер, в котором крутится веб-приложение. К приложению подключен service (то бишь лоадбалансер) с гугловским типом “internal” - и адресом во внутренней сети в клауде, естественно. Так же есть ВПН сервер в этой же подсети для внешних подключений.
Беда заключается в том, что коммуникации происходят в одностороннем режиме - при попытке зайти на веб-интерфейс приложения, ничего не грузит вообще. Пробовал curl - ответа не приходит. Но при этом, в логах nginx в контейнере я вижу попытку подключения и GET от браузера.
Но при этом всём, если зайти черех ssh на хосты внутри сети (compute engine, не в кластере k8s), в которую смотрит лоад балансер, и сделать curl - ответ приходит.
Подскажите, пожалуйста, куда и что копать? Файрволы разрешают весь трафик внутри подсети.
Логически сразу на ум приходят проблемы с VPN, но не может же StrongSwan выборочно резать траффик, правильно?
Так же, если в браузере ввести напрямую адрес и порт ноды (не пода, а именно ноды) - приложение открывается.


Fike
24.05.2018
16:48:40
звучит как проблемы с NAT и что ответ не перенаправляется обратно по впн

camodor
24.05.2018
17:03:21
Какой нить дефолт гетвей проверьте со стороны впн/кластера в сторону офиса

Alex
24.05.2018
17:53:30
Господа, а вот натолкнулся на такую фразу в гугле по этому поводу - кто что думает?
We wanted to use Internal load balancers for the aforementioned routing. Both AWS and GCP provide internal load balancers, however it’s not currently possible to route requests to a GCP internal load balancer from outside the GCP network, even if you are connected over the VPN. So we needed to come up with an alternative approach.
Взято отсюда
https://tech.holidayextras.com/routing-to-internal-kubernetes-services-using-proxies-and-ingress-controllers-e7eb44954d53

Stanislav
24.05.2018
18:11:25
И дефолтные квоты там на внешние IP по умолчанию 8 IP на проект
Чтобы сделать больше надо выходить из триалки и писать слезное письмо
И напрямую внешний адрес ты никак не сможешь прицепить к GKE ingress

Google

Alex
24.05.2018
18:13:28
Тогда главный вопрос: правильно ли я сейчас понимаю, что со своего хоста, подключенного через ВПН, я к интернал лоад балансеру подцепиться не смогу?

Stanislav
24.05.2018
18:13:34
Только через GLB (причем неважно, автоматически созданный, или вручную)
Простите, а сам VPN сервер у вас где относительно вашего GKE?

Alex
24.05.2018
18:14:22
В одной подсети с ним, в compute engine живет

Stanislav
24.05.2018
18:16:28
http://dl4.joxi.net/drive/2018/05/24/0007/2721/490145/45/3d9d7b2c75.jpg

Alex
24.05.2018
18:16:31
Но до сервисов, живущими за интернал лоад балансерами - достучаться не дает. При этом всём, отлично работает с приложениями, живущими в отдельных инстансах на GCE.

Stanislav
24.05.2018
18:16:52
С использованием NodePort - сможешь
Ну и про политики сетевые разрешающие не забыть на уровне самого GKE (k8s)

Alex
24.05.2018
18:17:29
Можно, но это скорее хак будет - у меня там порядка 20 сервисов будет (привет адептам микросервисов).
Хотелось бы правильно - по отдельным внутренним айпишникам ходить.

Stanislav
24.05.2018
18:18:04
Но основная сложность у тебя будет в отлове этих динамически присваиваемых NodePort

Andor
24.05.2018
18:19:15
а нельзя впн прямо внутри кубера поднять? :)

Stanislav
24.05.2018
18:20:05
А смысл? Оверхед обслуживания - выше, профит - не очевиден.

Alex
24.05.2018
18:20:42

Andor
24.05.2018
18:20:44
сервисы внутри будут доступны
да-да, всё так

Banschikov
24.05.2018
18:34:39
Народ, подскажите как шедуллер заставить при ребалансировке под, сажать поды на более разгруженный воркер?
что-то делаю может не так?
З.Ы На скрине все поды запущены, так как добавил ресурсов на worker02

Google

Huan
24.05.2018
21:25:12
привет всем. включил RBAC и создал role, rolebinding:
---
kind: Role
apiVersion: rbac.authorization.k8s.io/v1
metadata:
namespace: kube-test
name: deploy
rules:
- apiGroups: [""]
resources: [""]
resourceNames: [""]
verbs: ["create", "update", "patch", "delete"]
---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
namespace: kube-test
name: deploy
subjects:
- apiGroup: rbac.authorization.k8s.io
kind: User
name: deploy
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: Role
name: deploy
как ему сгенерить секрет чтоб деплоитьчерез этого юзера? или может вообще не так надо делать?

bykva
24.05.2018
22:30:52
У кого-то есть опыт смены MAC адреса у ESXI физического адаптера через live-cd debian?

Yuriy
24.05.2018
23:25:11
Упс, это видимо был офтоп ?

Anton
25.05.2018
05:29:07
@Bykva, ещё раз насрёшь таким во всех чятиках -- забаню за спам.

Alisa
25.05.2018
07:34:07
а есть CI as a service, который работает лучше и быстрее gitlab-ci и проще интегрируется с k8s?

Arslanbekov
25.05.2018
07:35:56

Andrey
25.05.2018
07:37:02

Arslanbekov
25.05.2018
07:38:00
не сыровато ли?
Очень сыро, но других подобных работ в этом направлении пока не нашёл

Дмитрий
25.05.2018
09:05:37
Подскажите, как добыть логи поды которая в гитлабе описывается как
Waiting for pod stage/runner-aa5716a7-project-181-concurrent-1swp8h to be running, status is Pending
Running on runner-aa5716a7-project-181-concurrent-1swp8h via gitlab-runner-8b8bc9c48-knl4b...
В апи сервере такая ошибка
upgradeaware.go Error proxying data from client to backend write tcp write broken pipe