
Slava
14.07.2018
16:16:16
+

Driver
14.07.2018
16:16:18
уже задеплоеный pod можно мигрировать на соседнюю worker node без остановки пода?
а то что-то в доках не описано такого кейса

Slava
14.07.2018
16:17:03

Google

Crypt
14.07.2018
16:17:04

Slava
14.07.2018
16:18:00
+
согласен, но кому-то легче yum|apt install nginx

zigmund
14.07.2018
16:24:43

Driver
14.07.2018
16:27:38
спасибо

Дмитрий
14.07.2018
19:10:24
daemonset + hostport

Valera
14.07.2018
21:09:44

Stas
14.07.2018
21:11:37
это workaround пока они не сделают cloud nat полноценный

Valera
14.07.2018
21:14:04

Stas
14.07.2018
21:14:56
обещают скоро доделать, а пока там есть терраформ модуль

Gleb
15.07.2018
10:00:34
/report

Google

next
15.07.2018
10:08:45
первый - бот, второй - хозяин бота

lenar
15.07.2018
10:14:53
@DenisIzmaylov @SinTeZoiD spam

Михаил
15.07.2018
10:21:00

Vladimir
15.07.2018
10:58:55

Corsars
15.07.2018
11:52:32

Nikita
15.07.2018
13:57:41
А кто чем пользуется для хранения переменных окружения с хостами или часто используемыми настройками? Я так понимаю лучшая практика, это хранение доступов в секретах, а настроек в конфиг мапах?

Sergey
15.07.2018
14:04:02
В консул потом пихать все

Vladimir
15.07.2018
14:06:06

Slava
15.07.2018
14:12:00
кто-нибудь запускал netty в кубе ?
задача: у приложения есть некий service.http.address, приложение при старте пытается биндить его как хостнейм (свой адрес), во внутрях netty делается bind, самая последняя команда в стеке (где, собсно, и возникает ошибка) - sun.nio.ch.Net.bind0(Native method), - при её вызове получаю ошибку:
java.net.BindException: Cannot assign requested address
что-то сетевое не даёт сделать эту операцию
под, где запускается приложение, имеет сервис и резолвится по хостнейму
хостнейм = name из конфига деплоймента и сервиса
полный domain name выглядит как hostname.namespace.svc.cluster.local

Anton
15.07.2018
18:26:12
Нельзя ему 0.0.0.0 скормить в настройках?

Slava
15.07.2018
19:00:02
можно
там один параметр в два места сетится, пока разбил на два отдельных параметра - вроде взлетело
но пинг от пода к поду пока дико долгий

Crypt
15.07.2018
19:20:51

Slava
15.07.2018
19:21:18
там не с портом проблема, а с хостнеймом

Google

Slava
15.07.2018
19:22:02
убираю хостнейм из параметров приложения - всё взлетает

Dmytro
15.07.2018
19:22:08
Да зачем нужен хостнейм, юзай четыре ноля внутри контейнера

Slava
15.07.2018
19:22:21
уже не нужен

Crypt
15.07.2018
19:22:28
Я не понимаю как забиндить хостнейм можно

Dmytro
15.07.2018
19:22:43
Все равно порт без прокидывания через докер никому не будет виден

Fike
15.07.2018
19:23:15

Slava
15.07.2018
19:25:48
тут скорее дело в другом: у пода в /etc.hosts на его IP забинден хостнейм типа app-<hash>, а внутри приложения делается бинд на app (как для сервиса, но сервис - это не под, поэтому ловим фэйл)

Crypt
15.07.2018
21:58:30

Igor
16.07.2018
03:43:21
App.namespace.svc.cluster.local

Slava
16.07.2018
05:14:43

Maksim
16.07.2018
06:35:20
Привет
Подскажите по поводу подов
Создал я мастер, включил в него поды, потом по какой то причине один из подов выключил, при повторном включении он автоматически не подключается к мастеру. так как срок действия ключа истек.
Есть ли по этому поводу какой то best practice ?

Sergey
16.07.2018
06:37:54
подключил под к мастеру?)

Maksim
16.07.2018
06:41:06
Ага, kubectl join ..

Sergey
16.07.2018
06:41:13
воркер это не под

Maksim
16.07.2018
06:41:16
не знаю как правильно это называет
тьфу, ну да, туплю

Sergey
16.07.2018
06:41:26
воркер\миньон

Maksim
16.07.2018
06:41:43
миньонами уже вроде не называют
добавил ноду к мастеру в обще

Google

Admin
ERROR: S client not available

Sergey
16.07.2018
06:41:53
ну это условно:)

Maksim
16.07.2018
06:42:29
забросил свой тестовый кластер на k8s и в очередной раз увидел что он у меня развалился
Что используете под хранилище ? Смотрел в сторону ceph и glusterfs, ceph удалось завсти быстрее

ILSIYAR
16.07.2018
07:49:11
Привет, подскажите плиз с вопросом- поднял кластер с calico, из ноды база доступна а из подов нет, какая настройка играет роль? Куда копать?

ptchol
16.07.2018
07:49:12
ребят, подскажите в чём, дело.
Выпускаю сертификат через cert-manager.
вроде все выпускается но в качестве Issuer стоит Fake LE Intermediate X1
kubectl describe certificate
пишет что
Conditions:
Last Transition Time: 2018-07-16T06:18:07Z
Message: Certificate issued successfully
Reason: CertIssued
Status: True
Type: Ready

Andrey
16.07.2018
07:53:18

ptchol
16.07.2018
08:06:55
вроже нет, у меня вобще один. просто letsenctypt
issuerRef:
name: letsencrypt
kind: ClusterIssuer
и
apiVersion: certmanager.k8s.io/v1alpha1
kind: ClusterIssuer
metadata:
name: letsencrypt
namespace: infra

Sergei
16.07.2018
08:08:19
А Rook никто не пробовал? Я поставил на тестовый кластер, вроде работает без проблем уже несколько месяцев. MySQL и rabbit норм работают на его вольюмах

Andrey
16.07.2018
08:10:35

ptchol
16.07.2018
08:11:06
Так вроде написано что если clusterIssuer то он как бы как Issuer тока для всех namespaces

Andrey
16.07.2018
08:11:18
спека его где?

ptchol
16.07.2018
08:12:02
apiVersion: certmanager.k8s.io/v1alpha1
kind: ClusterIssuer
metadata:
name: letsencrypt
namespace: infra
spec:
acme:
server: https://acme-staging-v02.api.letsencrypt.org/directory
email: email@email.com
privateKeySecretRef:
name: letsencrypt
http01: {}

Andrey
16.07.2018
08:12:23

ptchol
16.07.2018
08:12:35
ойййй
Спасибо.

Andrey
16.07.2018
08:13:21

Sergei
16.07.2018
08:14:22
Ну это не боевая Бд, чисто попробовать. Но работает что самое интересное

Slava
16.07.2018
08:15:33

Google

Alexander
16.07.2018
08:16:04
Ребят как правильно хранить yaml файли которые деплоят приложения, в гииэте вместе с проектом в отдельной ветке и при деплое сливать ее?

ptchol
16.07.2018
08:16:14

Andrey
16.07.2018
08:17:18

Kirill
16.07.2018
08:18:37
всем привет, есть 2 пода, в них по одному приложению. Но нужно конфиг для приложения 1 тянуть из 2. Конфиг соотвественно должен жить/умирать/обновлятся вместе со 2 приложением. Я думаю про тома, но какой вид лучше выбрать?(просьба s3,ceph не предлагать, ради 1 конфига,это оверхед)
Ну либо другие варианты, как это можно организовать.

Slava
16.07.2018
08:19:50
я для тестов и стейджинга организовал локальное хранилище на диске

Psy
16.07.2018
08:19:52
Джобой доставлять конфиг?

Slava
16.07.2018
08:19:56
pv (local) + pvc

Sergei
16.07.2018
08:20:01
Конфиг хранить можно в configmap, consul, vault