@kubernetes_ru

Страница 684 из 958
Slava
14.07.2018
16:16:16
+

Driver
14.07.2018
16:16:18
уже задеплоеный pod можно мигрировать на соседнюю worker node без остановки пода?

а то что-то в доках не описано такого кейса

Slava
14.07.2018
16:17:03
там кроме контроллера и дефолтного бэкенда нужно еще сам инжинкс пустить
можно и так сделать, за nginx'ом весь кластер спрятать (но это уже мимо куба)

Google
Crypt
14.07.2018
16:17:04
Контроллер и есть nginx
неа, у меня без шага Baremetal не было сервиса егошного

можно и так сделать, за nginx'ом весь кластер спрятать (но это уже мимо куба)
так ингрессы для этого и нужны, чтобы выставить частично наружу куб, чтобы допом не ставить проксю

Slava
14.07.2018
16:18:00
+

согласен, но кому-то легче yum|apt install nginx

Driver
14.07.2018
16:27:38
спасибо

Дмитрий
14.07.2018
19:10:24
daemonset + hostport

Valera
14.07.2018
21:09:44
угу вместо http https healthcheck а про то чего в гцп нет это отдельная история например там нет нат
Nat gateway же есть или вы о чём? https://cloud.google.com/solutions/using-a-nat-gateway-with-kubernetes-engine

Stas
14.07.2018
21:11:37
Nat gateway же есть или вы о чём? https://cloud.google.com/solutions/using-a-nat-gateway-with-kubernetes-engine
прочитайте статью внимательнее. там предлагают сделать инстанс группу с виртуалкой фаервольный и роутинг рул на нее по тегу с нод куба. это ни в каком месте не облачный snat

это workaround пока они не сделают cloud nat полноценный

Valera
14.07.2018
21:14:04
прочитайте статью внимательнее. там предлагают сделать инстанс группу с виртуалкой фаервольный и роутинг рул на нее по тегу с нод куба. это ни в каком месте не облачный snat
С aws перехожу, увидел знакомое nat gateway, подумал, что gcloud не отстаёт, но если, как вы говорите, то звучит геморойнее как-то :(

Stas
14.07.2018
21:14:56
обещают скоро доделать, а пока там есть терраформ модуль

Gleb
15.07.2018
10:00:34
/report

Google
next
15.07.2018
10:08:45
первый - бот, второй - хозяин бота

lenar
15.07.2018
10:14:53
@DenisIzmaylov @SinTeZoiD spam

Михаил
15.07.2018
10:21:00
Vladimir
15.07.2018
10:58:55
Cloud NAT уже звучит ужасно
Ну чтоб понятно было

Corsars
15.07.2018
11:52:32
Nikita
15.07.2018
13:57:41
А кто чем пользуется для хранения переменных окружения с хостами или часто используемыми настройками? Я так понимаю лучшая практика, это хранение доступов в секретах, а настроек в конфиг мапах?

Sergey
15.07.2018
14:04:02
В консул потом пихать все

Vladimir
15.07.2018
14:06:06
Именно
а чем ужасно? )

Slava
15.07.2018
14:12:00
кто-нибудь запускал netty в кубе ?

задача: у приложения есть некий service.http.address, приложение при старте пытается биндить его как хостнейм (свой адрес), во внутрях netty делается bind, самая последняя команда в стеке (где, собсно, и возникает ошибка) - sun.nio.ch.Net.bind0(Native method), - при её вызове получаю ошибку: java.net.BindException: Cannot assign requested address

что-то сетевое не даёт сделать эту операцию

под, где запускается приложение, имеет сервис и резолвится по хостнейму

хостнейм = name из конфига деплоймента и сервиса

полный domain name выглядит как hostname.namespace.svc.cluster.local

Anton
15.07.2018
18:26:12
Нельзя ему 0.0.0.0 скормить в настройках?

Slava
15.07.2018
19:00:02
можно

там один параметр в два места сетится, пока разбил на два отдельных параметра - вроде взлетело

но пинг от пода к поду пока дико долгий

Slava
15.07.2018
19:21:18
там не с портом проблема, а с хостнеймом

Google
Slava
15.07.2018
19:22:02
убираю хостнейм из параметров приложения - всё взлетает

Dmytro
15.07.2018
19:22:08
Да зачем нужен хостнейм, юзай четыре ноля внутри контейнера

Crypt
15.07.2018
19:22:28
Я не понимаю как забиндить хостнейм можно

Dmytro
15.07.2018
19:22:43
Все равно порт без прокидывания через докер никому не будет виден

Fike
15.07.2018
19:23:15
Я не понимаю как забиндить хостнейм можно
очевидно он резолвится в сервис, а этот айпишник понятное дело запрашивающему не принадлежит

Slava
15.07.2018
19:25:48
тут скорее дело в другом: у пода в /etc.hosts на его IP забинден хостнейм типа app-<hash>, а внутри приложения делается бинд на app (как для сервиса, но сервис - это не под, поэтому ловим фэйл)

Igor
16.07.2018
03:43:21
App.namespace.svc.cluster.local

Slava
16.07.2018
05:14:43
Там же вроде как куб днс есть. Если к сервису стучаться, то app.namespace.cluster.local, или не?
да, есть, и оно работает. Уже нашёл проказника, проблема ушла ) (zookeeper, хранящий discovery-инфраструктуру, водил меня за нос)

Maksim
16.07.2018
06:35:20
Привет Подскажите по поводу подов Создал я мастер, включил в него поды, потом по какой то причине один из подов выключил, при повторном включении он автоматически не подключается к мастеру. так как срок действия ключа истек. Есть ли по этому поводу какой то best practice ?

Sergey
16.07.2018
06:37:54
подключил под к мастеру?)

Maksim
16.07.2018
06:41:06
Ага, kubectl join ..

Sergey
16.07.2018
06:41:13
воркер это не под

Maksim
16.07.2018
06:41:16
не знаю как правильно это называет

тьфу, ну да, туплю

Sergey
16.07.2018
06:41:26
воркер\миньон

Maksim
16.07.2018
06:41:43
миньонами уже вроде не называют

добавил ноду к мастеру в обще

Google
Admin
ERROR: S client not available

Sergey
16.07.2018
06:41:53
ну это условно:)

Maksim
16.07.2018
06:42:29
забросил свой тестовый кластер на k8s и в очередной раз увидел что он у меня развалился

Что используете под хранилище ? Смотрел в сторону ceph и glusterfs, ceph удалось завсти быстрее

ILSIYAR
16.07.2018
07:49:11
Привет, подскажите плиз с вопросом- поднял кластер с calico, из ноды база доступна а из подов нет, какая настройка играет роль? Куда копать?

ptchol
16.07.2018
07:49:12
ребят, подскажите в чём, дело. Выпускаю сертификат через cert-manager. вроде все выпускается но в качестве Issuer стоит Fake LE Intermediate X1 kubectl describe certificate пишет что Conditions: Last Transition Time: 2018-07-16T06:18:07Z Message: Certificate issued successfully Reason: CertIssued Status: True Type: Ready

ptchol
16.07.2018
08:06:55
вроже нет, у меня вобще один. просто letsenctypt

issuerRef: name: letsencrypt kind: ClusterIssuer и apiVersion: certmanager.k8s.io/v1alpha1 kind: ClusterIssuer metadata: name: letsencrypt namespace: infra

Sergei
16.07.2018
08:08:19
А Rook никто не пробовал? Я поставил на тестовый кластер, вроде работает без проблем уже несколько месяцев. MySQL и rabbit норм работают на его вольюмах

ptchol
16.07.2018
08:11:06
Так вроде написано что если clusterIssuer то он как бы как Issuer тока для всех namespaces

Andrey
16.07.2018
08:11:18
спека его где?

ptchol
16.07.2018
08:12:02
apiVersion: certmanager.k8s.io/v1alpha1 kind: ClusterIssuer metadata: name: letsencrypt namespace: infra spec: acme: server: https://acme-staging-v02.api.letsencrypt.org/directory email: email@email.com privateKeySecretRef: name: letsencrypt http01: {}

ptchol
16.07.2018
08:12:35
ойййй

Спасибо.

Sergei
16.07.2018
08:14:22
Ну это не боевая Бд, чисто попробовать. Но работает что самое интересное

Slava
16.07.2018
08:15:33
БД на ceph? Выглядит подозрительно
а на чём боевые БД держат?

Google
Alexander
16.07.2018
08:16:04
Ребят как правильно хранить yaml файли которые деплоят приложения, в гииэте вместе с проектом в отдельной ветке и при деплое сливать ее?

ptchol
16.07.2018
08:16:14
server: https://acme-staging-v02.api.letsencrypt.org/directory
а мне теперь надо же как то отозвать серт ? или как ?

Andrey
16.07.2018
08:17:18
а мне теперь надо же как то отозвать серт ? или как ?
нужно просто заставить cert-manager его перевыпустить. подозреваю, что удаления сикрета с ключами для этого будет достаточно, но смотри в доки.

Kirill
16.07.2018
08:18:37
всем привет, есть 2 пода, в них по одному приложению. Но нужно конфиг для приложения 1 тянуть из 2. Конфиг соотвественно должен жить/умирать/обновлятся вместе со 2 приложением. Я думаю про тома, но какой вид лучше выбрать?(просьба s3,ceph не предлагать, ради 1 конфига,это оверхед)

Ну либо другие варианты, как это можно организовать.

Slava
16.07.2018
08:19:50
я для тестов и стейджинга организовал локальное хранилище на диске

Psy
16.07.2018
08:19:52
Джобой доставлять конфиг?

Slava
16.07.2018
08:19:56
pv (local) + pvc

Sergei
16.07.2018
08:20:01
Конфиг хранить можно в configmap, consul, vault

Страница 684 из 958