Konstantin
я вообще передаю persistence.enabled: false
Konstantin
только толку
Vladimir
Уже месяц как баг открытый висит на это. Проще всего руками эту папку создать через minikube ssh
Konstantin
спасибо!
Konstantin
а поды, которые за сервисами clusterIp должны же друг друга по этим ip видеть?
Konstantin
у меня в ENV на подах адреса прописались все
Konstantin
но не пингуется ни в одну из сторон
G72K
а поды, которые за сервисами clusterIp должны же друг друга по этим ip видеть?
Если поды ходят сами к себе по clusterip И при этом находятся на одной ноде, то надо проверить опцию kubelet hairpin mode, она как раз для этого
Konstantin
ок, спасибо
G72K
Но мне всегда было интересно, для чего может понадобится из пода ходить к своему же сервису
Anton
общая конфигурация наверное, сервис не знает что он сам к себе идет, вот и идет по имени сервиса?
G72K
Если надо получить сервис от самого себя, то 127.0.0.1 тоже сработает
G72K
И будет более надежно
Anton
это если приложение умеет отделять запросы к самому себе и к другим эндпойнтам. тоесть я примерно только понимаю откуда берутся обращения к самому себе по имени - зачем делать логику какую то по отделению запросов "сам к себе" и всех остальных, если всегда можно по одному адресу тыкать
Anton
это только догадка =)
Anonymous
Друзья, всем привет. Подскажите, я не могу понять: node это 1 единица в кластере (т.е. 1 железный сервер) или это 1 виртуальная единица? (т.е. некое подобие виртуалки)
Maksim
node это то где стоит kubelet, чем является Машина не важно
Konstantin
и они друг друга не видят
Anonymous
node это то где стоит kubelet, чем является Машина не важно
можно ли как-то провести скалинг нод в автоматическом режиме (не aws)?
Konstantin
а нода у меня - minikube, если это важно. и kube-proxy я там не увидел (если он нужен)
Maksim
всмысле?...Ну бери Heat OpenStack и деплой тода kubelet с правильными настройками
G72K
и они друг друга не видят
А у вас другой случай, у кого то такое было но не помню чтобы решилось.
Maksim
Или грузи правильною Ось по PXE
Maksim
ну и т.п.
Konstantin
@rossmohax меня смущает, что гугл вообще никаких подобных проблем не показывает.
Anonymous
Или грузи правильною Ось по PXE
смотрю в сторону coreOS на голом железе
G72K
можно ли как-то провести скалинг нод в автоматическом режиме (не aws)?
Если вы знаете как в автоматическом режиме добыть вычислительных мощностей, то да.
G72K
смотрю в сторону coreOS на голом железе
Хорошее дело. Гляньте typhoon для примера иили родственные ему examples в matchbox
G72K
@rossmohax меня смущает, что гугл вообще никаких подобных проблем не показывает.
kube-proxy нужен, ищите куда он пропал :) можно начать со списка мертвых контейнеров в docker ps -a
Alexander
Привет знатокам. Изучаю гайды по поднятию kubernetes Дошел до плагина сетей, и возник вопрос какой выбрать ? есть 2 варианта установок 1 на виртуалках с 1 внешним ип 2 на серверах с 2 сегментами внешний + локалка . Подскажите с какой копать
Konstantin
@rossmohax короче запустил minikube с driver=none в виртуалке на линуксе и там работает, хотя kube-proxy тоже отсутствует. 😕
Konstantin
короче пересоздал всё с нуля и заработало (minikube delete && rm -rf ~/.minikube)
𝚔𝚟𝚊𝚙𝚜
@asigatchov >2 на серверах с 2 сегментами внешний + локалка В зависимости что ты хочешь получить конечно, но во втором случае советовал бы попробовать начать с Romana как наиболее простой и непроблемный вариант. Если хочешь заставить кубер использовать только конкретную подсеть используй --apiserver-advertise-address= опцию, и не забудь добавить все адреса и dns-имена по которым ты хочешь подключаться к куберу в --apiserver-cert-extra-sans
𝚔𝚟𝚊𝚙𝚜
>1 на виртуалках с 1 внешним ип здесь нужно что-то с шифрованием, weave - самый простой вариант, но имхо не самый продуктивный. Здесь лучше пусть кто-нибудь еще совет даст :)
Алексей
Подскажите, имеет право на жизнь такая архитектура? ДЦ1: мастер1, Воркер1, ингресс1 ДЦ2: мастер2, Воркер2, ингресс2 GoogleCloud (или аналог): Мастер3, ингресс3 Мастера с etcd естественно. Цель - отказоустойчивое решение при падении одного из ДЦ. ДЦ могут быть как одного так и разных провайдеров. Чем грозит такая архитектура?
bebebe
кучей false-positive
Алексей
кучей false-positive
В чём именно?
bebebe
в стейтах ресурсов, наример нод
bebebe
с loadbalancer'ам тоже не понятно будет
Алексей
в стейтах ресурсов, наример нод
с чем связано? С задержками в репликации etcd?
Slach
в стейтах ресурсов, наример нод
а как правильно?? через federation ?https://kubernetes.io/docs/concepts/cluster-administration/federation/ ?
Алексей
Например? Я пока не представляю как это должно работать и деплоится
Serega
ну это конечно геморнее, в плане деплоя. Зато позволит делать легко канареечные деплои.
Serega
А работать оно может через единый лоадбалансер, например через клаудфларе или на базе Route53 LBR
bebebe
k8s не поддерживает гетерогенные системы
Serega
ну это тоже "нюанс" для тех кто хочет запихнуть всё в один большой кластер. А вот это "Чтобы было надежней" в итоге может превратиться в ад при разваливании этого кластера или попытках его апгрейда
Pasha Chalyk
может кто подсказать статью для нубов про storageclass'ы и statefulsets ?
Serega
google ?
Pasha Chalyk
ну там все доки на kubernetes.io и уже для тех, кто понимает зачем это и что ему нужно:(
Pasha Chalyk
ок, начать с этого надо https://kubernetes.io/docs/concepts/storage/volumes/
Maksim
может кто подсказать статью для нубов про storageclass'ы и statefulsets ?
Сам спросил, сам ответил, приятно разговаривать с умным человеком)
Pasha Chalyk
все так))
Maksim
Если по простому, то у тебя есть sds с автопровижингом volume (ceph/glusterFS/StorageOS и т.п.) и storageclass это описание как к нему присоденеится, и авторизационные данные (на нодах с кублетом должен быть клиент для этого кластера). Собсно когда создаётся pvc (запрос на pv), в его аннотации указывается этот самый storageclass и контроллер в автономном режиме создаёт волюм.
Maksim
Ну а stafullset это когда название подов статично. как и их число.....
Maksim
Вроде это все чем statefull сет отличается от деплоя, хотя тут я могу и ошибаться, я их почти не юзал.
Maksim
на гитхабе есть примеры storageclass для тех, что кубер поддерживает
Pasha Chalyk
Если по простому, то у тебя есть sds с автопровижингом volume (ceph/glusterFS/StorageOS и т.п.) и storageclass это описание как к нему присоденеится, и авторизационные данные (на нодах с кублетом должен быть клиент для этого кластера). Собсно когда создаётся pvc (запрос на pv), в его аннотации указывается этот самый storageclass и контроллер в автономном режиме создаёт волюм.
супер спасибо! мне для разработки нужен pv для хранения там базы, для того чтобы все поды на моих 3х нодах имели доступ к этой базе я так понимаю мне нужно делать какой-то внешний pvs, но из легкого я так понимаю только storageos мне подойдет
Pasha Chalyk
верно же?
Maksim
ну в теории можно обойтись и nfs -)
Maksim
только pv прийдётся в ручную делать.
Pasha Chalyk
кубер локальный есличто
Maksim
Локально это как?
Maksim
всё в одной виртуалке?
Pasha Chalyk
не
Pasha Chalyk
4 виртуалки - мастер + 3 слейва
Maksim
сооруди на мастере nfs
Maksim
и сделай pv ручками
Maksim
не нужен тебе starageOS и т.п. на виртуальках...
Maksim
Storageclass это скорее решение для функционирующего кластера, что бы администраторы ручками и делали каждый pv
Maksim
если у тебя 1-2 pv то тебе всё это накручивать не надо
Maksim
в описании pv вроде описано как сделать pv + pvc для nfs
Maksim
Вот этой инфы тебе хватит
Maksim
https://kubernetes.io/docs/concepts/storage/persistent-volumes/
Pasha Chalyk
сооруди на мастере nfs
и он будет доступен для всех подов на всех слейвах?
Maksim
да