Konstantin
я вообще передаю persistence.enabled: false
Konstantin
только толку
Vladimir
Уже месяц как баг открытый висит на это. Проще всего руками эту папку создать через minikube ssh
Konstantin
спасибо!
Konstantin
а поды, которые за сервисами clusterIp должны же друг друга по этим ip видеть?
Konstantin
у меня в ENV на подах адреса прописались все
Konstantin
но не пингуется ни в одну из сторон
Konstantin
ок, спасибо
G72K
Но мне всегда было интересно, для чего может понадобится из пода ходить к своему же сервису
Anton
общая конфигурация наверное, сервис не знает что он сам к себе идет, вот и идет по имени сервиса?
G72K
Если надо получить сервис от самого себя, то 127.0.0.1 тоже сработает
G72K
И будет более надежно
Anton
это если приложение умеет отделять запросы к самому себе и к другим эндпойнтам.
тоесть я примерно только понимаю откуда берутся обращения к самому себе по имени - зачем делать логику какую то по отделению запросов "сам к себе" и всех остальных, если всегда можно по одному адресу тыкать
Anton
это только догадка =)
Anonymous
Друзья, всем привет. Подскажите, я не могу понять: node это 1 единица в кластере (т.е. 1 железный сервер) или это 1 виртуальная единица? (т.е. некое подобие виртуалки)
G72K
Maksim
node это то где стоит kubelet, чем является Машина не важно
Konstantin
Konstantin
и они друг друга не видят
Konstantin
а нода у меня - minikube, если это важно. и kube-proxy я там не увидел (если он нужен)
Maksim
всмысле?...Ну бери Heat OpenStack и деплой тода kubelet с правильными настройками
Maksim
Или грузи правильною Ось по PXE
Maksim
ну и т.п.
G72K
Konstantin
@rossmohax меня смущает, что гугл вообще никаких подобных проблем не показывает.
Anonymous
Alexander
Привет знатокам.
Изучаю гайды по поднятию kubernetes
Дошел до плагина сетей, и возник вопрос какой выбрать ?
есть 2 варианта установок
1 на виртуалках с 1 внешним ип
2 на серверах с 2 сегментами внешний + локалка .
Подскажите с какой копать
Konstantin
@rossmohax короче запустил minikube с driver=none в виртуалке на линуксе и там работает, хотя kube-proxy тоже отсутствует. 😕
Konstantin
короче пересоздал всё с нуля и заработало (minikube delete && rm -rf ~/.minikube)
𝚔𝚟𝚊𝚙𝚜
@asigatchov
>2 на серверах с 2 сегментами внешний + локалка
В зависимости что ты хочешь получить конечно, но во втором случае советовал бы попробовать начать с Romana как наиболее простой и непроблемный вариант.
Если хочешь заставить кубер использовать только конкретную подсеть используй --apiserver-advertise-address= опцию, и не забудь добавить все адреса и dns-имена по которым ты хочешь подключаться к куберу в --apiserver-cert-extra-sans
𝚔𝚟𝚊𝚙𝚜
>1 на виртуалках с 1 внешним ип
здесь нужно что-то с шифрованием, weave - самый простой вариант, но имхо не самый продуктивный. Здесь лучше пусть кто-нибудь еще совет даст :)
Алексей
Подскажите, имеет право на жизнь такая архитектура?
ДЦ1: мастер1, Воркер1, ингресс1
ДЦ2: мастер2, Воркер2, ингресс2
GoogleCloud (или аналог): Мастер3, ингресс3
Мастера с etcd естественно.
Цель - отказоустойчивое решение при падении одного из ДЦ.
ДЦ могут быть как одного так и разных провайдеров.
Чем грозит такая архитектура?
bebebe
кучей false-positive
Алексей
bebebe
в стейтах ресурсов, наример нод
bebebe
с loadbalancer'ам тоже не понятно будет
Serega
Алексей
Например? Я пока не представляю как это должно работать и деплоится
Serega
ну это конечно геморнее, в плане деплоя. Зато позволит делать легко канареечные деплои.
Serega
А работать оно может через единый лоадбалансер, например через клаудфларе или на базе Route53 LBR
bebebe
k8s не поддерживает гетерогенные системы
Serega
ну это тоже "нюанс" для тех кто хочет запихнуть всё в один большой кластер.
А вот это "Чтобы было надежней" в итоге может превратиться в ад при разваливании этого кластера или попытках его апгрейда
Pasha Chalyk
может кто подсказать статью для нубов про storageclass'ы и statefulsets ?
Serega
google ?
Pasha Chalyk
ну там все доки на kubernetes.io и уже для тех, кто понимает зачем это и что ему нужно:(
Pasha Chalyk
ок, начать с этого надо https://kubernetes.io/docs/concepts/storage/volumes/
Maksim
Pasha Chalyk
все так))
Maksim
Если по простому, то у тебя есть sds с автопровижингом volume (ceph/glusterFS/StorageOS и т.п.) и storageclass это описание как к нему присоденеится, и авторизационные данные (на нодах с кублетом должен быть клиент для этого кластера). Собсно когда создаётся pvc (запрос на pv), в его аннотации указывается этот самый storageclass и контроллер в автономном режиме создаёт волюм.
Maksim
Ну а stafullset это когда название подов статично. как и их число.....
Maksim
Вроде это все чем statefull сет отличается от деплоя, хотя тут я могу и ошибаться, я их почти не юзал.
Maksim
на гитхабе есть примеры storageclass для тех, что кубер поддерживает
Pasha Chalyk
Pasha Chalyk
верно же?
Maksim
ну в теории можно обойтись и nfs -)
Maksim
только pv прийдётся в ручную делать.
Pasha Chalyk
кубер локальный есличто
Maksim
Локально это как?
Maksim
всё в одной виртуалке?
Pasha Chalyk
не
Pasha Chalyk
4 виртуалки - мастер + 3 слейва
Maksim
сооруди на мастере nfs
Maksim
и сделай pv ручками
Maksim
не нужен тебе starageOS и т.п. на виртуальках...
Maksim
Storageclass это скорее решение для функционирующего кластера, что бы администраторы ручками и делали каждый pv
Maksim
если у тебя 1-2 pv то тебе всё это накручивать не надо
Maksim
в описании pv вроде описано как сделать pv + pvc для nfs
Maksim
Вот этой инфы тебе хватит
Maksim
https://kubernetes.io/docs/concepts/storage/persistent-volumes/
Maksim
да