
Maksim
19.10.2017
11:40:48
он пытается сделать RBAC через api v1beta1
а у кластер уже v1

Oleg
19.10.2017
11:40:55

Maksim
19.10.2017
11:40:58
переписывай пакет)

Google

Maksim
19.10.2017
11:41:05
Добро пожаловать в OS

Anton
19.10.2017
11:41:21
в kubespray rbac.authorization.k8s.io/v1beta1

Maksim
19.10.2017
11:41:27
что бы поднимать одной кнопкой нужен helm

Anton
19.10.2017
11:45:06

Роман
19.10.2017
11:45:25

Maksim
19.10.2017
11:46:14
kompose фигня редкосная

Oleg
19.10.2017
11:46:15

Maksim
19.10.2017
11:46:26
его манифесты в кубере нельзя использовать

Роман
19.10.2017
11:46:57
Я воспользовался только один раз. Просто, чтобы понять, что нужно куберу. Потом дописал всё своё и уже своё поддерживаю.

Maksim
19.10.2017
11:47:27
Короче Олегу нужен helm

Oleg
19.10.2017
11:47:30

Maksim
19.10.2017
11:47:33
и его ему нужно раскуривать

Google

Maksim
19.10.2017
11:47:44
спрей вообще деплоер кластера
а не приложух в кластер

Oleg
19.10.2017
11:48:07

Maksim
19.10.2017
11:48:21
вот этого не понял
что за объеденёные конфги

Oleg
19.10.2017
11:48:52
типа такого https://raw.githubusercontent.com/microservices-demo/microservices-demo/master/deploy/kubernetes/complete-demo.yaml
это кстати без проблем раскаталось через
kubectl apply -n sock-shop -f "https://raw.githubusercontent.com/microservices-demo/microservices-demo/master/deploy/kubernetes/complete-demo.yaml"

Anton
19.10.2017
11:50:14
ага, там и rbac нету =)))
вы можете сами написать yaml. или запустить helm с dryrun, сохранить выхлоп и использовать

Oleg
19.10.2017
11:56:00
kubectl api-versions
admissionregistration.k8s.io/v1alpha1
apiextensions.k8s.io/v1beta1
apiregistration.k8s.io/v1beta1
apps/v1beta1
apps/v1beta2
authentication.k8s.io/v1
authentication.k8s.io/v1beta1
authorization.k8s.io/v1
authorization.k8s.io/v1beta1
autoscaling/v1
autoscaling/v2beta1
batch/v1
batch/v1beta1
certificates.k8s.io/v1beta1
extensions/v1beta1
networking.k8s.io/v1
policy/v1beta1
rbac.authorization.k8s.io/v1
rbac.authorization.k8s.io/v1beta1
storage.k8s.io/v1
storage.k8s.io/v1beta1
v1
есть и то и то
rbac.authorization.k8s.io/v1
rbac.authorization.k8s.io/v1beta1

Maksim
19.10.2017
11:56:50
ой не факт)_

Oleg
19.10.2017
11:57:56
ну что посоветуете? забить на helm в данном случае?

Maksim
19.10.2017
11:59:01
ytn
нет
переписать пакет

Роман
19.10.2017
12:02:49

Oleg
19.10.2017
12:03:57

Роман
19.10.2017
12:05:38

Oleg
19.10.2017
12:06:23
ну выложи в гитхаб yaml) чтобы вообще kubectl apply подымать

Google

Anton
19.10.2017
12:20:06
уже выложено в виде helm chart =)

Oleg
19.10.2017
12:21:01
так оно не пашет же
или я чего не понял
https://github.com/kubernetes/ingress-nginx/issues/1542. а точно nginx-ingress созрел?

Igor Ivanov
19.10.2017
12:28:20
господа, подскажите по такому вопросу: в кубернетесе запускаю поды, которые наружу выдают кастомные метрики на определенном порту. чем их можно собирать чтобы запихнуть в прометеус?

Maksim
19.10.2017
12:38:01
ну прометеус сам обходит ендпоинты и собирает метрики
другой вопрос если метрики не prometheus like
тогда нужен какой-нить переводчик...

Anton
19.10.2017
12:39:28

Igor Ivanov
19.10.2017
12:49:15

Maksim
19.10.2017
12:49:35
тогда просто написать endpoint в конфиге прометеуса

Igor Ivanov
19.10.2017
12:50:51
Получается надо экспоузить порты для этого? В данный момент порт для метрик во внутренней сети кубера

Maksim
19.10.2017
13:43:59
смотря где прометеус
можно и ingress-controller ром вынести прометеус же собирает по hhtp

Oleg
19.10.2017
14:21:13
Ребят, ткните как Ингресс завести до уровня команд
Проверенный вариант
Как сами делаете

Vadim
19.10.2017
14:55:33
Люди, а раскажите каким способом вы поднимаете продакшен кластер и на какой операционной системе?

Maksim
19.10.2017
14:56:25
каждый на своей

Айбелив
19.10.2017
15:10:06

Google

Oleg
19.10.2017
15:19:08
Ты как делаешь?

Айбелив
19.10.2017
16:21:44
я сделал кучу манифестов (шаблонов со вставками переменных), в качестве шаблонизатора — sed, конкачу и kubectl apply
планирую на helm переходить, а то Makefile слишком толстый получается

Paul
19.10.2017
16:36:53
https://www.reddit.com/r/kubernetes/comments/77b5s8/kubernetes_in_ipv6_only/

Ivan
19.10.2017
17:34:51
мне тут товарищи из Cisco все мозги слегка продолбили, они мой kubeadm-dind-cluster пытаются использовать для e2e-тестирования IPv6 на GCE. Пока с немного переменным успехом
(тк GCE не умеет IPv6, нужен Docker-in-Docker)
в смысле, k8s + IPv6

Paul
19.10.2017
17:43:25

Vitaliy
19.10.2017
20:37:57

Oleg
19.10.2017
20:38:49
не правильно инвентори завел
подскажите как правильно. У меня мастер, есть внешний IP и внутренний IP. Установлен nginx-ingress. Его контроллер надо биндить на nodePort на 80/443? Иначе на внешнем IP 80/443 ничего нет. Или я не правильно что понимаю?
сорян. это уже делается https://raw.githubusercontent.com/kubernetes/ingress-nginx/master/deploy/provider/baremetal/service-nodeport.yaml
тогда не понятно почему порты не забайндены

Anton
20.10.2017
05:47:54
Мне кажется уже обсуждали вчера, на своём железе нужно или kubelety port range изменить и фиксировать nodeport в сервисе (тогда kube proxy везде правила создаст в iptables чтобы конекты попали в твой сервис) или запускать в daemonset + net host. Тогда на каждой машине запустится экземпляр и откроет порты на ноде на всех интерфейсах

Oleg
20.10.2017
09:10:50
вчера пробовал nodeport обмануть )
The Service "ingress-nginx" is invalid: spec.ports[0].nodePort: Invalid value: 80: provided port is not in the valid range. The range of valid ports is 30000-32767
увидел варианты с ReplicationController и hostPort https://github.com/nginxinc/kubernetes-ingress/blob/master/examples/complete-example/nginx-ingress-rc.yaml


Anton
20.10.2017
09:22:33
есть ссылки?
я пользуюсь helm https://github.com/kubernetes/charts/tree/master/stable/nginx-ingress
helm chart может сформировать daemonset + hostnetwork из этого шаблона: https://github.com/kubernetes/charts/blob/master/stable/nginx-ingress/templates/controller-daemonset.yaml
сделать это просто - нужно установить controller.kind DaemonSet & controller.hostNetwork true
мы это обсуждали вчера
у тебя какие то проблемы с несовпадением api в rbac были

Google

Oleg
20.10.2017
09:23:18
с helm у меня проблема почему-то - поды не стартуют. в pending висят

Anton
20.10.2017
09:23:41
ну дык describe все что создалось
daemonset\deploymet\replicaset\pods\service
nodes
если rbac включен, то ингресс контроллеру нужен акк для доступа к апи, чтобы собирать данные
насчет несовпадения api, вариант влоб, с dry run прогнать helm, сохранить его выхлоп и изменить в yaml apiVersion. его вроде бы без изменений вверх подняли
ну или клонировать репо и отредактировать шаблоны

Paul
20.10.2017
09:38:06
коллеги, есть ли тут те, кто используют Dex?

Oleg
20.10.2017
10:03:00
Сценарий:
1. Купили сервер на DO, Scaleway, etc в котором есть внешний IP и внутренний IP
2. Скачали kubespray и развернули на сервере (одном!) кластер
3. Через helm установили nginx-ingress, настроили чтобы был доступен через 80/443 внешнего IP
4. Через helm установили какой-нибудь owncloud, настроили чтобы оно было доступно по 80/443 внешнего IP
5. Настроили ingress для owncloud чтобы было доступно снаружи по доменному имени с сертификатом от letsencrypt
Кто может до уровня команд написать за деньги?

Anton
20.10.2017
10:11:22
вот она, реальная возможность заработать!

Oleg
20.10.2017
10:11:40
можно кстати без helm, не принципиально

Anton
20.10.2017
10:12:30
без вилки бесполезно говорить =)

Oleg
20.10.2017
10:13:35
кому-нибудь еще такое будет полезным?

Сергей
20.10.2017
10:14:01
можно и без кубера - еще менее принципиально)

Oleg
20.10.2017
10:14:36
без кубера я на docker swarm это без проблем раскатаю. Кубер это вообще какой-то поток сознания
и нет ни одной повторяемой статьи с такими элементарными приседаниями