
Mikalai
28.07.2018
11:53:26
Как в Kubernetes использовать imagePullSecret для деплоймента, а не для пода? Решил в GKE залить проект на стейджинг но не могу имедж с registry.gitlab.com вытащить((
Прошу прощения за тупенький вопрос)

Andrey
28.07.2018
11:56:54

Mikalai
28.07.2018
12:03:36
Как я понимаю это после 59 строки? Но GKE ругается и не сохраняет(

Google

Crypt
28.07.2018
12:12:18

Mikalai
28.07.2018
12:24:29
@cryptstal

Crypt
28.07.2018
12:27:10
@cryptstal
imagePullSecrets не для конкретного контейнера, а для всех, нужно на один уровень с containers поставить

Mikalai
28.07.2018
12:38:53
Ура, заработало! @cryptstal @rheinx спасибище!

Juriy
28.07.2018
16:41:58
Всем ку. А гугле ингрес как то по особенному работает?
На тесте на железе все ок в гугле не работает ингрес.

Caffeine
28.07.2018
17:38:33

Andor
28.07.2018
17:42:55
"я тут что-то сделал и у меня не работает"
Без объяснения что было сделано и без объяснения, что не работает
Люблю такое

Dmytro
28.07.2018
17:59:54
всегда так делаю

Juriy
28.07.2018
18:09:03

Google

Juriy
28.07.2018
18:10:14

Caffeine
28.07.2018
19:01:26

Juriy
28.07.2018
19:02:08

Caffeine
28.07.2018
19:03:11

blkmrkt
29.07.2018
11:14:07
Мне нужно пробросить постгрес с ноды на которой он установлен на живую, внутрь кластера.
Правильно будет, если я оберну HAProxy в Dockerfile, и запущу этот под с host networking?
Не знаете что в конфиге HAProxy написать?
Пробросить нужно localhost:5432 на порт 5432 пода.

Andrey
29.07.2018
11:15:46

blkmrkt
29.07.2018
11:16:45

Andrey
29.07.2018
11:17:43

blkmrkt
29.07.2018
11:18:04

Andrey
29.07.2018
11:18:56

blkmrkt
29.07.2018
11:19:50
и лучше ее не трогать, а осторожно подключаться

Andrey
29.07.2018
11:24:22

blkmrkt
29.07.2018
11:24:53
А уже поды из кластера смогут адресовать его внутри виртуальной сети куба, если я правильно понимаю

Andrey
29.07.2018
11:26:25

blkmrkt
29.07.2018
11:29:08
ох щит, ок
pod ip и node ip в этом случае одинаковы
Я думал что эта херь дает поду дополнительный сетевой интерфейс

Google

Andrey
29.07.2018
11:30:15

blkmrkt
29.07.2018
11:30:17
Как быть то?

Andrey
29.07.2018
11:31:08
Как быть то?
Посмотри все же в сторону сервиса. А на pg разреши коннекты только с ip нод в pg_hba.conf
Ну или если паранойя то можешь дополнительно шлифануть фаерволом

blkmrkt
29.07.2018
11:31:36

Andrey
29.07.2018
11:32:03

blkmrkt
29.07.2018
11:43:43

Dmytro
29.07.2018
12:13:47
так ты сходи сначала телнетом на сервис:порт посмотри что там

Алексей
29.07.2018
13:13:42
господа кто нить юзает contiv ? он правда умеет в vlan ?
я бы хотел для некоторой части подов иметь две сети. одну в сторону кластера вторую в сторону нужных мне vrf. нужные vrf подаются на хост в отдельных vlan в теге

Andrey
29.07.2018
13:16:59

blkmrkt
29.07.2018
13:17:48

Andrey
29.07.2018
13:19:11

blkmrkt
29.07.2018
13:21:54

Andrey
29.07.2018
13:25:14

blkmrkt
29.07.2018
13:26:51

Andrey
29.07.2018
13:43:47

blkmrkt
29.07.2018
13:48:00
kubectl describe svc %service_name% покажи
Name: postgres
Namespace: vw-production
Labels: <none>
Annotations: field.cattle.io/creatorId=user-x8f67
field.cattle.io/ipAddresses=["153.132.16.11"]
field.cattle.io/targetDnsRecordIds=null
field.cattle.io/targetWorkloadIds=null
Selector: <none>
Type: ClusterIP
IP: None
Port: default 42/TCP
TargetPort: 42/TCP
Endpoints: 153.132.16.11
Session Affinity: None
Events: <none>

Andrey
29.07.2018
13:57:47

Lex
29.07.2018
15:07:02
А кому нибудь доводилось настраивать gitlab-runnerы в k8s?

Google

Алексей
29.07.2018
15:21:36
по гитлабу есть группа кстати

Andor
29.07.2018
15:23:07

blkmrkt
29.07.2018
15:23:52

Алексей
29.07.2018
15:24:30
да чо бы нет. @ru_gitlab

Andor
29.07.2018
15:31:53
который резолв?

neumeika
29.07.2018
15:31:58

Алексей
29.07.2018
15:32:35
вообще я тут погуглил и выяснил что быть может то что я хочу делает calico под именем HostEndpoint но это не точно

neumeika
29.07.2018
15:36:09
дык ежели calico, там bgp, укрутиться можно
я ж, надеюсь, ты не фланнел юзаешь, как во всех мануалах? :)

Алексей
29.07.2018
15:38:28
мне bgp не надо. мне надо на под 2 интерфейса. один в сторону кластера второй в сторону нужного мне vrf. нужных мне vrf сильно больше одного
подов для одной задачи будет больше одного. ip адреса надо брать именно с хоста.
без кубера я это собираю через network namespace помещая процессы в оные и добавляя туда по физическому(vlan) интерфейсу

neumeika
29.07.2018
15:42:57
однако, а просто отроутить ипишку и направить куда вздумается - плохо? бритва оккама тебя покарает за кучу интерфейсов :)

Алексей
29.07.2018
15:45:06
дак src роутинг получается же
причем src pid routing :)

Google

neumeika
29.07.2018
15:46:05
а ты не думал, что тот, кто будет дебажить это, тебя побъёт? :)

Roman
29.07.2018
15:46:34

neumeika
29.07.2018
15:48:18
можно, но лучше об этом даже не думать

Roman
29.07.2018
15:49:11
https://github.com/kubernetes/kubernetes/issues/27398

Алексей
29.07.2018
15:49:51
а ты не думал, что тот, кто будет дебажить это, тебя побъёт? :)
а у меня какие варианты то....
есть сетевое железо. на котором в ip acl прописан 1(один) ip адрес. там же прописан 1 (совсем один) адрес для отправки syslog/trap.
реконфигурировать сетевое железо нельзя (можно но его многие десятки тысяч)
надо со стороны серверов попробовать переехать в кубер.
сейчас есть 2 хоста. active/standby c вот этим плавающим ip указанным в ipacl

Dmytro
29.07.2018
15:53:21
я бы сначала в эту сторону поковырял

Алексей
29.07.2018
15:59:33

neumeika
29.07.2018
16:04:17
сложным путём, назначить подсетку поду, и её натить/роутить в этот IP, всё как ты любишь, правда обвязка будет специфическая из-за vrrp адреса, если у тебя HA

Алексей
29.07.2018
16:06:04
вот тут картинка похожа на мою https://docs.projectcalico.org/v3.1/getting-started/bare-metal/bare-metal

Oleg
29.07.2018
18:34:29
minikube version: v0.28.1 на mac, один контейнер из пода не пингует другой контейнер из пода через сервис. через localhost работает. Никто не сталкивался?

Sergey
29.07.2018
18:35:42
Ребят, прометей может по тегам кубера сортировать мониторинг контейнеров?

Valeriy
29.07.2018
18:36:42