@kubernetes_ru

Страница 870 из 958
Volodimir
07.10.2018
20:59:19
так а зачем тогда такое предлогают наприер kubespray мне интересен мотив подобного решения

вчем соль ?

Mikhail
07.10.2018
21:25:32
так а зачем тогда такое предлогают наприер kubespray мне интересен мотив подобного решения
По-моему дуют на воду. Если в вас будет такой огромный кластер, что упретесь в etcd, или у вас такие нагрузки, что etcd сразу будет тормозить, то вы и так и так его вынесете.

Vitalik
08.10.2018
03:22:18
Ух, так зачем же на ноде кубера ещё непонятно что через докер композ стартовать? Если так делаете то пропишите в докер композ файле явно создание новой overlay network и чтобы все контейнеры в этом файле её юзали
Подозреваю что не поможет. По умолчанию создаётся, не overlay конечно, но вполне себе bridge, который в том числе можно настроить на доступ к внешке. Но дело в том что всё это работает через изменения iptables самим докером. Здесь главное не забыть проверить что докер можно обрезать опциями запуска, в том числе выключить изоляцию сети. Насчёт исключительности ноды кубера довольно спорное утверждение. Она такой же компьютер. Конкретно был случай необходимости запустить CI+тесты, так как другой машины под рукой не оказалось.

Google
Andor
08.10.2018
05:01:03
А что мешает запускать ci в кубере?

kvaps
08.10.2018
06:19:10
А может кто подсказать - у local persistent volume обязательно размер указывать или можно так же как в докере - создай мне volume, а о свободном месте я позабочусь сам ?
1. Да обязательно, на основе этого параметра и нескольких других куб находит наиболее подходящий PV для каждого PVC 2. ЕМНИП Local-Volume provisioner не умеет создавать волумы по запросу. Чтобы PV появился в кубе, нужно натравить провижионер на директорию, затем вручную создать в ней mountpoint, только после этого провижионер добавит его как PV в кластер

Vitalik
08.10.2018
06:22:25
как раз таки dind снёс базу :)

dind для другого создавался, его создатель отговаривает использовать это для тестов

достаточно примонтировать сокет

kvaps
08.10.2018
06:23:44
Хм, ну я только для сборки его использую, запускаю sidecar'ом работает норм

как раз таки dind снёс базу :)
Это интересный случай, а расскажите поподробнее. Docker вроде бы все links в /etc/hosts прописывает

Какая у вас сеть была?

Vitalik
08.10.2018
06:26:10
докер был запущен без собственного руля над iptables, поэтому никак не изолировал сеть. docker-compose не всегда справляется с резольвом ns-имён и разрешил postgres внутрь кластера, а не на тот что в compose

благо это стейджинг был, не жалко, но опыт не самый приятный

Google
Vitalik
08.10.2018
06:28:29
вот этого не знаю, так глубоко не копал, но точно он такую возможность предоставляет. по крайней мере редис подцепил как надо, а с пг чёт не смог

kvaps
08.10.2018
06:32:17
Просто на сколько я помню, он использует встроенный в docker механизм links, а он все хостнэймы статически в /etc/hosts прописывает. Скорее всего забыли прописать нужную связь в docker-compose.yaml файлике. Из-за чего оно разрешило имя через хостовый resolve.conf

Vitalik
08.10.2018
06:34:06
по идее достаточно только service прописать. compose файл 100% рабочий

kvaps
08.10.2018
06:34:55
Интересный кейс :) Кстати, почему бы не запускать тесты в том же кубере, а не через docker-compose раннеру можно выделить отдельный неймспейс, пускай запускает там все что захочет

Vitalik
08.10.2018
06:35:32
недостаток времени и рук :)

kvaps
08.10.2018
06:36:05
Заодно манифест два раза переписывать не нужно будет: для docker-compose и для Kubernetes

Так а что за сеть для куба была?

Vitalik
08.10.2018
06:54:14
калико

кубспрей позволяет включить изоляцию для докеров, но потестировать руки не дошли, возможно даже работает docker_iptables_enabled: "true"

Andor
08.10.2018
07:01:54
На кубе нодах проще не запускать ничего не-куберного, чем придумывать обходные пути

M
08.10.2018
07:08:40
Ребят а может ли nginx ingress проксировать на сервис в другом namespace (clusterip)

Banschikov
08.10.2018
07:09:17
Всем привет! Немного повторюсь с вопросом. Что не так с RBAC у меня? --- apiVersion: v1 kind: ServiceAccount metadata: name: deployment-manager-serviceaccount namespace: develop --- apiVersion: rbac.authorization.k8s.io/v1beta1 kind: Role metadata: namespace: develop name: deployment-manager-role rules: - apiGroups: [""] resources: ["pods"] verbs: ["*"] - apiGroups: ["apps", "extensions"] resources: ["deployments", "statefulsets", ingresses", "replicasets"] verbs: ["get", "list", "watch", "create", "update", "patch", "delete"] --- apiVersion: rbac.authorization.k8s.io/v1 kind: RoleBinding metadata: name: deployment-manager-rolebinding namespace: develop roleRef: kind: Role name: deployment-manager-role apiGroup: rbac.authorization.k8s.io subjects: - kind: ServiceAccount name: deployment-manager-serviceaccount namespace: develop

Могу управлять и просматривать "apps", "extensions

Но вот pods, configmaps не работают

Уже делал resources: [""] и ничего не заработало

Ведь в первом rules я указал все apiGroups, в том числе и core, но почему то не работает

Anton
08.10.2018
07:12:50
Подскажите пожалуйста по этому вопросу: https://toster.ru/q/569075

Anton
08.10.2018
07:40:25
Alexey
08.10.2018
07:41:06
По kubespray ничего не скажу local_volume_provisioner_enabled: true local_volume_provisioner_base_dir: /mnt/disks local_volume_provisioner_mount_dir: /mnt/disks local_volume_provisioner_storage_class: local-storage конкретно про это, но local-storage работает из коробки в 11+

Google
Alexey
08.10.2018
07:41:35
apiVersion: v1 kind: PersistentVolume metadata: name: mon3 spec: capacity: storage: 2Gi volumeMode: Filesystem accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Delete storageClassName: local-storage local: path: /var/vol1 nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - my-host-name

pv нужно делать руками

далее PersistentVolumeClaim уже сам выбирает куда пришвартоваться.

Vadim
08.10.2018
07:44:16
Ребят а может ли nginx ingress проксировать на сервис в другом namespace (clusterip)
Если нет никаких сетевых политик, например сеть flannel то без проблем

Alexander
08.10.2018
07:44:37
pv нужно делать руками
или провизионер искать

Vadim
08.10.2018
07:45:07
Вопрос в другом может ли ингресс контроллер читать объекты ингресс в другом неймспейс, там нужно сервис аккаунт права править

Alexey
08.10.2018
07:45:11
или провизионер искать
это baremetal обычно. Ни провизионеры, ни autoscale тут не работают... Ресурсы статичны.

M
08.10.2018
07:50:49
Если нет никаких сетевых политик, например сеть flannel то без проблем
не до конца по правде понял , как мне указать его в ingress ns/default не хочется еще один подымать

Anton
08.10.2018
07:55:52
далее PersistentVolumeClaim уже сам выбирает куда пришвартоваться.
вот эти пути должны быть разные? local: path: /var/vol1 и local_volume_provisioner_base_dir: /mnt/disks local_volume_provisioner_mount_dir: /mnt/disks

Alexey
08.10.2018
07:58:11
вот эти пути должны быть разные? local: path: /var/vol1 и local_volume_provisioner_base_dir: /mnt/disks local_volume_provisioner_mount_dir: /mnt/disks
local: path: /var/vol1 это путь на fs, где будут лежат pv данные. Насчет kubespray я не знаю за что отвечают эти флаги

У вас есть место, вы делаете пару pv, к примеру /var/vol1 /var/vol2 /var/vol3 через pvc поды их столбят на себя

kubespray тут не нужен в теории. Возможно это устаревшие флаги от 1.8 или 1.9 какого-то. в 11+ это работает из коробки.

Vadim
08.10.2018
08:04:35
local provisioner как раз таки будет делать pv, нужно только каталоги ручками создавать

Сергей
08.10.2018
09:17:20
всем привет

имеет ли смысл предпочесть стандартному centos centos atomic/fedora atomic/core os ?

Сергей
08.10.2018
09:22:24
а зачем?
вот я и задаюсь вопросом - "зачем"

Михаил
08.10.2018
09:23:08
вот я и задаюсь вопросом - "зачем"
я вижу больше секса на пустом месте

Google
Vadim
08.10.2018
09:23:13
пока нет, до тех пор пока не выйдет Fedora CoreOS

но в целом приемущество конечно есть - атомарные транзакции, смена веток и так далее

Сергей
08.10.2018
09:24:35
понял, спасибо

примерно такого же мнения, но решил попробовать развернуть из fedora-atomic

документация "шикарная"

Михаил
08.10.2018
09:25:53
Vadim
08.10.2018
09:27:15
и зачем всё это надо если у тебя просто кубер?
+ рантайм, selinux, iptables / firewalld, ceph-common и т.д.

Артем
08.10.2018
09:28:47
Добрый день. Подскажите установил kubernetes через kubespray. Дашбор не открывается, ставил его по инструкции с оф. сайта. Kubernetes master is running at http://localhost:8080 KubeDNS is running at http://localhost:8080/api/v1/namespaces/kube-system/services/kube-dns:dns/proxy kubernetes-dashboard is running at http://localhost:8080/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy В чем причина?

Artem
08.10.2018
09:31:35
+ рантайм, selinux, iptables / firewalld, ceph-common и т.д.
Вообще, идиально было бы, чтобы ноды можно было бутстрапить через cloud init

Vadim
08.10.2018
09:32:11
Andrey
08.10.2018
09:40:21
коллеги доброго localtime

gподскажите почему при deployment с исползование local registrty я получаю эту ошибку?

Failed to pull image "MY.DOMAIN.SITE:5000/manager-backend": rpc error: code = Unknown desc = Get https://MY.DOMAIN.SITE:5000/v1/_ping: dial tcp: lookup MY.DOMAIN.SITE on 8.8.8.8:53: no such host

почему он ломится к гуглу???

Alexander
08.10.2018
09:48:21
чет такое смутно припоминаю, когда поднял кластер на не поддерживаемой на тот момент версии докера. 18.3 емнип.

оно там подтягивает resolv.conf с хост машины что ли. В общем гуглить на тему косяка с резолвом в докере.

Andrey
08.10.2018
09:50:08
судя по всему нашел в чем проблема

сейчам протестирую

были не правильно указанные dns на нодах. Всем спасибо!)

Anton
08.10.2018
10:07:02
Подскажите можно ли на local_volume_provisioner установить Elastic-stack Helm Chart ? Prerequisites Details PV dynamic provisioning support on the underlying infrastructure Ведь я для тестового пода pv и pvc создавал руками

Google
Mikhail чердак
08.10.2018
10:17:18
А кто как вообще ведет учет пользователей в RBAC?

А то это все выглядит очень неудобно с точки зрения аудита

Anton
08.10.2018
10:17:34
но вообще, если у вас внизу нифига не динамическое создание pv, то может вам и не стоит опираться на решения такого типа?

Anton
08.10.2018
10:17:55
проблема то какая? создавать pv придется впрок разве что
наверное я не правильно понял kubernetes. Сейчас ищу как локальные диски использовать для EFK

Anton
08.10.2018
10:18:54
наверное я не правильно понял kubernetes. Сейчас ищу как локальные диски использовать для EFK
на самом деле неплохо вполне использовать local volume provisioner. есть еще вариант через flexvolume скриптами в lv генерить вольюмы. как бы с другой стороны заход

Dmytro
08.10.2018
10:49:29
А кто как вообще ведет учет пользователей в RBAC?
мы начали внедрять heptio authenticator (т.е. чтобы по AWS IAM юзерам в кластер ходили)

Mikhail чердак
08.10.2018
10:49:49
мы начали внедрять heptio authenticator (т.е. чтобы по AWS IAM юзерам в кластер ходили)
Так уже интереснее. А отслеживать роли там как-то можно?

У меня сейчас вся проблема в том, что куча биндингов

Dmytro
08.10.2018
10:50:48
да, там прописывается связка IAM роли (или юзера) к кластерной роли в одном файлике

(конфигмапе)

Mikhail чердак
08.10.2018
10:51:02
Любопытно, обязательно посмотрю, спасибо!

Dmytro
08.10.2018
10:51:16
но кучу clusterroles это не отменит

Aleksey
08.10.2018
10:59:30
А что произойдёт, если отвалится nfs, который использовался для pvc? Это где-то описано? Я как-то по очевидным запросам не нашёл

bebebe
08.10.2018
11:00:27
зависнет i/o

Aleksey
08.10.2018
11:09:00
То же смое, как если отвалится nfs без куба
то есть, куб никак не следит за этим? Никаких попыток сложить-починить зависший под?

Так-то понятно, что в момент отвала всё сломается

Страница 870 из 958