
Egor
04.07.2018
07:47:08
это у какого сервиса надо сделать?

Andrey
04.07.2018
07:47:40
И сервис тогда не нужен уже.

Denis
04.07.2018
07:51:08
Коллеги, доброе утро
Подскажите пожалуйста что я делаю не так.
Есть Rancher 2.0.x, при помощи него поднят кластер на AWS EC2. Через него же (rancher) пытаюсь прикруть PVC NFS от Amazon EFS. На Амазоне все настроено. Но как только пытаюсь понять контейнер с volume. Он не стартует. Куда копать?

Google

Denis
04.07.2018
07:51:18
Буду рад любой помощи

Vitalii
04.07.2018
08:00:31
Не знаю касательно Rancher, но обычно поднимал по следующим инструкция, вроде норм работает:
AWS part:
https://aws.amazon.com/getting-started/tutorials/create-network-file-system/
KUBERNETES part:
https://github.com/kubernetes-incubator/external-storage/blob/master/aws/efs/deploy/manifest.yaml

Rostyslav
04.07.2018
08:14:10
привет, у меня вопрос.
я создал екстернал ип а как теперь ее использовать?
добавил в сервис ямл status:
loadBalancer:
ingress:
- ip: 40.85.222.185

Alexey
04.07.2018
08:15:53
Если кто не видел gitlab выкатил из beta Auto DevOps
https://about.gitlab.com/
Крутая призентация фичи
https://www.youtube.com/watch?v=EcFOx-FBrlQ
шутники ?
(это на основе kubernetes)

Ivan
04.07.2018
08:20:07
за деньги?

Andor
04.07.2018
08:20:50
автодевопс вроде в CE версии

Alexey
04.07.2018
08:23:22
Нет, CC стоит на своих серверах, в 10 версии есть, только в бете был.
Что-то запутался в буквах. Что имелось в виду?
В community версии точно есть. Не думаю что enterprise обделили

Konstantin
04.07.2018
09:34:36
Коллеги, есть кластер, поднятый через kubespray. Добавил флаги в манифест api сервера (это который static pod) . Вопрос: как теперь это все применить, чтобы он увидел эти флаги? (Про kubectl apply и edit заранее прошу не писать)
По идее это должен делать рестарт кубелета, но флаги не считались

Google

Pavel
04.07.2018
09:37:46
Обычно прокатывает не рестарт, а именно стоп и потом старт

V
04.07.2018
09:51:46
народ, а кто какие метрики смотрит через прометеус?

M
04.07.2018
09:53:32
гц цпу память и типичные для сервисов

V
04.07.2018
09:55:21
https://habr.com/company/southbridge/blog/340238/

Pavel
04.07.2018
09:55:56
Всем привет. Устанавливаю kafka на Cloudera 5.14. Сервис нн стартует и выдает ошибку HeapOutOfMemory. Увеличил java heap size broker и mirror на 10 gb. Та же ошибка. Может кто помлчь?

Andor
04.07.2018
09:56:47

V
04.07.2018
10:02:15
в чём проблема?
забираю в графану из prometheus node-exporter, рисуется график, но ощущение что чего-то нехватает.. или что криво как-то все это настроено у меня))

Andor
04.07.2018
10:04:15
ну ты опиши откуда это ощущение
нод-экспортер это именно про метрики с нод
тебе наверное надо ещё kube-state-metrics и с kubelet'овского cadvisor'а собирать

Konstantin
04.07.2018
10:12:16

Egor
04.07.2018
10:15:33

V
04.07.2018
10:24:03

Andrey
04.07.2018
10:45:03

Egor
04.07.2018
10:46:09
Интерфейс на хосте. Физический.
нашёл, на одной ноде из трёх слушается порт, там где под стартанул. можно как-то сделать, чтобы на всех нодах было? Тупо Replicas: 3 наверное не совсем оно
DaemonSet вроде такое делает. но это всё переделывать. наверное способ проще есть

Maxim
04.07.2018
10:50:10
Сделай репликас 3 или больше потом сможешь делать и попроси у affinity, чтобы желательно на разные ноды делала. Не?

Andrey
04.07.2018
10:52:53

kvaps
04.07.2018
11:06:04
ну я как-то через etcdctl сносил
оказалось все гораздо проще, достаточно снести finalizers у ресурса
kubectl patch pod $POD -p '{"metadata":{"finalizers":null}}'и тогда он сам удалится

Google

Andrey
04.07.2018
11:24:14

kvaps
04.07.2018
11:25:42
https://github.com/kubernetes/kubernetes/issues/65766#issuecomment-402377033

Gleb
04.07.2018
11:34:11
привет. а кто-то Spinnaker пользуется кроме нетфликса? в проде

Stanislav
04.07.2018
11:35:52

bebebe
04.07.2018
11:40:57

Andrey
04.07.2018
11:42:29
To control the cascading deletion policy, set the propagationPolicy field on the deleteOptions argument when deleting an Object. Possible values include “Orphan”, “Foreground”, or “Background”.
Prior to Kubernetes 1.9, the default garbage collection policy for many controller resources was orphan. This included ReplicationController, ReplicaSet, StatefulSet, DaemonSet, and Deployment. For kinds in the extensions/v1beta1, apps/v1beta1, and apps/v1beta2 group versions, unless you specify otherwise, dependent objects are orphaned by default. In Kubernetes 1.9, for all kinds in the apps/v1 group version, dependent objects are deleted by default.
Интересно.
https://kubernetes.io/docs/concepts/workloads/controllers/garbage-collection/


Gleb
04.07.2018
11:43:54
просто я второй день гуглю как сделать CD вменяемый в кубах
в замечательных гайдах типа CI CD WITH JENKINS AND KUBERNETES IN 3 EASY STEPS советуют типа kubectl set deployment image, что я че-т не очень хочу делать
на spinnaker я давно засматриваюсь, но для одного сервиса пока что будет оверкилл
в смысле их потом будет 50, можно будет и спиннакер. но чот судя по гайдам походу лучше уже сейчас начинать
а еще в чем фишка helm и пакедж менеджеров? у меня просто grpc/web сервисы и PaaS базы в ажуре, зачем мне нужен helm?

bebebe
04.07.2018
11:47:53
можно, стоит, чо как ваще?
не community friendly, netflix подписал контракт с гуглом, и гугл его даже как-то использует
быстро наступит огорчание по функционалу
умеет интегрироваться с jenkins, который будет делать всю грязь, а депоить можно через спиннакер.
не советую

Gleb
04.07.2018
11:48:14
хорошо, спасибо

bebebe
04.07.2018
11:48:39

Gleb
04.07.2018
11:49:21
я понимаю, вместо одного большого yaml можно быстро деплоить аппы состоящие и многих объектов k8s одним удобным чартом
просто блин у меня 1 под и 1 сервис, зачем мне хелм
ну потом будет 20 сервисов. но они на то и микросервисы

Pasha
04.07.2018
11:50:26

Gleb
04.07.2018
11:50:47
ага, это круто работает если тебе надо проинсталлировать какой-нибудь prometheus

Google

Gleb
04.07.2018
11:51:00
в котором там 10 объектов - секреты, волюмы, сервисы

bebebe
04.07.2018
11:51:17
просто блин у меня 1 под и 1 сервис, зачем мне хелм
это как раз будет хорошой точкой входа в helm
при правильно построенном процессе, ваш CI процесс будет готовить артефакты и публиковать helm package
ваш CD процесс будет их накатывать и открывать, можно даже подобие canary upgrades сделать

Pasha
04.07.2018
11:52:25
но тут есть ребята, готовые напомнить про количество багов в хелме)

bebebe
04.07.2018
11:52:28
в целом, на текущий момент helm это best practice, и все что вы хотите деливерить в k8s должно быть обернуто в него, в общем случае
хотя переодически тут видно адептов makefile которые деплоят через них
привыкли с 98 года видимо

Admin
ERROR: S client not available

Andor
04.07.2018
11:53:26
и оно работает не хуже в итоге
:)

Gleb
04.07.2018
11:53:53
то есть даже для приложения из 1 пода и 1 сервиса нужен хелм, ок

Stas
04.07.2018
11:54:47

Gleb
04.07.2018
11:55:22
https://kubernetes.io/blog/2018/05/29/introducing-kustomize-template-free-configuration-customization-for-kubernetes/

bebebe
04.07.2018
11:55:26
тут в helm3 должны lua впилить - вот заживем

Andor
04.07.2018
11:55:46
ох

Andrey
04.07.2018
11:56:00
ksonnet так никто и не решился попробовать?

Alexey
04.07.2018
11:56:02

Gleb
04.07.2018
11:57:16
а зачем его генерить? я думал, yml везде одинаковый
только секреты меняются

Alexey
04.07.2018
11:57:26
тег image сменить

Google

Gleb
04.07.2018
11:57:39
ммм, и всё?

Alexey
04.07.2018
11:57:48
ну у меня да, я не прав?

bebebe
04.07.2018
11:57:52
и оно работает не хуже в итоге
можно всякого нагородить, весь вопрос, что с этим будут делать другие
если его отбросить то можно и на m4 макросах делать, впринципе
можно sendmail.cf вспомнить

Andor
04.07.2018
11:58:22
kubernetes manifests - новый sendmail.cf

Gleb
04.07.2018
11:58:22
ну у меня да, я не прав?
я не знаю просто. у меня сейчас 2 кластера - дев и прод, ямл у меня одинаковый, только секреты разные, в секретах конн стринги к внешним системам

Alexey
04.07.2018
11:58:56
у меня image тег равен хешу комита. cd запукает apply и накатывает новый image
В swarm было удобней
IMAGE_TAG=$COMMIT_SHA docker stack deploy ...
image: project:$IMAGE_TAG

bebebe
04.07.2018
12:00:45

Alexey
04.07.2018
12:01:25
так и нужно, руки только не дошли, я на k8n только перевожу свои зоопарк.

bebebe
04.07.2018
12:02:01

Andor
04.07.2018
12:03:00
у нас самодельный костыль на питоне

Gleb
04.07.2018
12:03:17
щас бы костылей на питоне

Alexey
04.07.2018
12:03:23
echo service.yml | sed -e "s/{{tag}}/$COMMIT_SHA/g" > current-sevice.yml

Gleb
04.07.2018
12:03:33
щас бы седа в деплоях

Andor
04.07.2018
12:03:47
@alexesDev тогда уж envsubst

Alexey
04.07.2018
12:03:50
ну сорян ?