
Volodimir
07.10.2018
20:59:19
так а зачем тогда такое предлогают наприер kubespray
мне интересен мотив подобного решения
вчем соль ?

Mikhail
07.10.2018
21:25:32

Vitalik
08.10.2018
03:22:18

Google

Andor
08.10.2018
05:01:03
А что мешает запускать ci в кубере?

Let Eat
08.10.2018
05:43:27

kvaps
08.10.2018
06:19:10


Vitalik
08.10.2018
06:22:25
как раз таки dind снёс базу :)
dind для другого создавался, его создатель отговаривает использовать это для тестов
достаточно примонтировать сокет

kvaps
08.10.2018
06:23:44
Хм, ну я только для сборки его использую, запускаю sidecar'ом работает норм
Какая у вас сеть была?

Vitalik
08.10.2018
06:26:10
докер был запущен без собственного руля над iptables, поэтому никак не изолировал сеть. docker-compose не всегда справляется с резольвом ns-имён и разрешил postgres внутрь кластера, а не на тот что в compose
благо это стейджинг был, не жалко, но опыт не самый приятный

kvaps
08.10.2018
06:27:41

Google

Vitalik
08.10.2018
06:28:29
вот этого не знаю, так глубоко не копал, но точно он такую возможность предоставляет. по крайней мере редис подцепил как надо, а с пг чёт не смог

kvaps
08.10.2018
06:32:17
Просто на сколько я помню, он использует встроенный в docker механизм links, а он все хостнэймы статически в /etc/hosts прописывает. Скорее всего забыли прописать нужную связь в docker-compose.yaml файлике. Из-за чего оно разрешило имя через хостовый resolve.conf

Vitalik
08.10.2018
06:34:06
по идее достаточно только service прописать. compose файл 100% рабочий

kvaps
08.10.2018
06:34:55
Интересный кейс :)
Кстати, почему бы не запускать тесты в том же кубере, а не через docker-compose раннеру можно выделить отдельный неймспейс, пускай запускает там все что захочет

Vitalik
08.10.2018
06:35:32
недостаток времени и рук :)

kvaps
08.10.2018
06:36:05
Заодно манифест два раза переписывать не нужно будет: для docker-compose и для Kubernetes
Так а что за сеть для куба была?

Vitalik
08.10.2018
06:54:14
калико
кубспрей позволяет включить изоляцию для докеров, но потестировать руки не дошли, возможно даже работает
docker_iptables_enabled: "true"

Andor
08.10.2018
07:01:54
На кубе нодах проще не запускать ничего не-куберного, чем придумывать обходные пути

M
08.10.2018
07:08:40
Ребят а может ли nginx ingress проксировать на сервис в другом namespace (clusterip)


Banschikov
08.10.2018
07:09:17
Всем привет! Немного повторюсь с вопросом.
Что не так с RBAC у меня?
---
apiVersion: v1
kind: ServiceAccount
metadata:
name: deployment-manager-serviceaccount
namespace: develop
---
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: Role
metadata:
namespace: develop
name: deployment-manager-role
rules:
- apiGroups: [""]
resources: ["pods"]
verbs: ["*"]
- apiGroups: ["apps", "extensions"]
resources: ["deployments", "statefulsets", ingresses", "replicasets"]
verbs: ["get", "list", "watch", "create", "update", "patch", "delete"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: RoleBinding
metadata:
name: deployment-manager-rolebinding
namespace: develop
roleRef:
kind: Role
name: deployment-manager-role
apiGroup: rbac.authorization.k8s.io
subjects:
- kind: ServiceAccount
name: deployment-manager-serviceaccount
namespace: develop
Могу управлять и просматривать "apps", "extensions
Но вот pods, configmaps не работают
Уже делал resources: [""] и ничего не заработало
Ведь в первом rules я указал все apiGroups, в том числе и core, но почему то не работает


Anton
08.10.2018
07:12:50
Подскажите пожалуйста по этому вопросу: https://toster.ru/q/569075

Alexey
08.10.2018
07:36:59

Anton
08.10.2018
07:40:25

Alexey
08.10.2018
07:41:06
По kubespray ничего не скажу
local_volume_provisioner_enabled: true
local_volume_provisioner_base_dir: /mnt/disks
local_volume_provisioner_mount_dir: /mnt/disks
local_volume_provisioner_storage_class: local-storage
конкретно про это, но
local-storage работает из коробки в 11+

Google

Alexey
08.10.2018
07:41:35
apiVersion: v1
kind: PersistentVolume
metadata:
name: mon3
spec:
capacity:
storage: 2Gi
volumeMode: Filesystem
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Delete
storageClassName: local-storage
local:
path: /var/vol1
nodeAffinity:
required:
nodeSelectorTerms:
- matchExpressions:
- key: kubernetes.io/hostname
operator: In
values:
- my-host-name
pv нужно делать руками
далее PersistentVolumeClaim уже сам выбирает куда пришвартоваться.

Vadim
08.10.2018
07:44:16

Alexander
08.10.2018
07:44:37

Vadim
08.10.2018
07:45:07
Вопрос в другом может ли ингресс контроллер читать объекты ингресс в другом неймспейс, там нужно сервис аккаунт права править

Alexey
08.10.2018
07:45:11
или провизионер искать
это baremetal обычно. Ни провизионеры, ни autoscale тут не работают... Ресурсы статичны.

M
08.10.2018
07:50:49

Artem
08.10.2018
07:53:47

Anton
08.10.2018
07:55:52

Alexey
08.10.2018
07:58:11
У вас есть место, вы делаете пару pv, к примеру
/var/vol1
/var/vol2
/var/vol3
через pvc поды их столбят на себя
kubespray тут не нужен в теории. Возможно это устаревшие флаги от 1.8 или 1.9 какого-то. в 11+ это работает из коробки.

Vadim
08.10.2018
08:01:46

Vadim
08.10.2018
08:04:35
local provisioner как раз таки будет делать pv, нужно только каталоги ручками создавать

Сергей
08.10.2018
09:17:20
всем привет
имеет ли смысл предпочесть стандартному centos centos atomic/fedora atomic/core os ?

Михаил
08.10.2018
09:21:55

Сергей
08.10.2018
09:22:24
а зачем?
вот я и задаюсь вопросом - "зачем"

Михаил
08.10.2018
09:23:08

Google

Vadim
08.10.2018
09:23:13
пока нет, до тех пор пока не выйдет Fedora CoreOS
но в целом приемущество конечно есть - атомарные транзакции, смена веток и так далее

Сергей
08.10.2018
09:24:35
понял, спасибо
примерно такого же мнения, но решил попробовать развернуть из fedora-atomic
документация "шикарная"

Михаил
08.10.2018
09:25:53

Vadim
08.10.2018
09:27:15

Артем
08.10.2018
09:28:47
Добрый день. Подскажите установил kubernetes через kubespray. Дашбор не открывается, ставил его по инструкции с оф. сайта.
Kubernetes master is running at http://localhost:8080
KubeDNS is running at http://localhost:8080/api/v1/namespaces/kube-system/services/kube-dns:dns/proxy
kubernetes-dashboard is running at http://localhost:8080/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy
В чем причина?

Artem
08.10.2018
09:31:35

Vadim
08.10.2018
09:32:11

Andrey
08.10.2018
09:40:21
коллеги доброго localtime
gподскажите почему при deployment с исползование local registrty я получаю эту ошибку?
Failed to pull image "MY.DOMAIN.SITE:5000/manager-backend": rpc error: code = Unknown desc = Get https://MY.DOMAIN.SITE:5000/v1/_ping: dial tcp: lookup MY.DOMAIN.SITE on 8.8.8.8:53: no such host
почему он ломится к гуглу???

Alexander
08.10.2018
09:48:21
чет такое смутно припоминаю, когда поднял кластер на не поддерживаемой на тот момент версии докера. 18.3 емнип.
оно там подтягивает resolv.conf с хост машины что ли. В общем гуглить на тему косяка с резолвом в докере.

Andrey
08.10.2018
09:50:08
судя по всему нашел в чем проблема
сейчам протестирую
были не правильно указанные dns на нодах. Всем спасибо!)

Anton
08.10.2018
10:07:02
Подскажите можно ли на local_volume_provisioner установить Elastic-stack Helm Chart ?
Prerequisites Details
PV dynamic provisioning support on the underlying infrastructure
Ведь я для тестового пода pv и pvc создавал руками

Google

Anton
08.10.2018
10:16:59

Mikhail чердак
08.10.2018
10:17:18
А кто как вообще ведет учет пользователей в RBAC?
А то это все выглядит очень неудобно с точки зрения аудита

Anton
08.10.2018
10:17:34
но вообще, если у вас внизу нифига не динамическое создание pv, то может вам и не стоит опираться на решения такого типа?

Anton
08.10.2018
10:17:55

Anton
08.10.2018
10:18:54

Dmytro
08.10.2018
10:49:29

Mikhail чердак
08.10.2018
10:49:49
У меня сейчас вся проблема в том, что куча биндингов

Dmytro
08.10.2018
10:50:48
да, там прописывается связка IAM роли (или юзера) к кластерной роли в одном файлике
(конфигмапе)

Mikhail чердак
08.10.2018
10:51:02
Любопытно, обязательно посмотрю, спасибо!

Dmytro
08.10.2018
10:51:16
но кучу clusterroles это не отменит

Aleksey
08.10.2018
10:59:30
А что произойдёт, если отвалится nfs, который использовался для pvc? Это где-то описано? Я как-то по очевидным запросам не нашёл

bebebe
08.10.2018
11:00:27
зависнет i/o

Artem
08.10.2018
11:08:15

Aleksey
08.10.2018
11:09:00
Так-то понятно, что в момент отвала всё сломается