Sergei
я тут веселее нашел.
нельзя из кубернетеса на GKE пуллить образа из реджистри, который на этом же кубернетесе
Sergei
потому что LB
Sergei
и из нод собственно нельзя дойти ни на один из адресов, который type=LoadBalancer на этом же кластере
Serega
а че не пушить\пулить в гугловский реджистри?
Oleg
решил с kubespray kubernetes на centos накатать. Что-то все крепко зависло на container_download | Download containers if pull is required or told to always pull
Oleg
что-то пропустил? на ubuntu все накатывалось на раз
Алексей
Коллеги, у кого есть оператор для memcached под куб 1,8 ?
Oleg
selinux отключить?
Oleg
проверил - отключено из коробки
Алексей
а руками пулл делается?
Oleg
ага, на ноде все пулится
Victor
Подскажите, как в HELM расшарить свои чарты по сети, я не понял как получить что то вроде helm serve --address ...
попробовал через nginx-proxy на .helm/repository/local направить, но хелм почему то с 127.0.0.1:8879 пытается качать, а не с указанноко в зависимостях маршрута, хотя поиск чартов по репозиторию работает
Oleg
чет тупило на центоси но в конце концов установилось
Serega
а kubespray с kvm кто-то пользовал? большие танцы с бубном?
Oleg
в общем есть мнение что это у scaleway центось тормозная
Oleg
убунту как-то у них пошустрее
G72K
Oleg
хотя не факт
Oleg
а кто пользует openshift?
𝚔𝚟𝚊𝚙𝚜
Привет, слышал Kubernetes умеет зараннее скачивать image для контейнера на другой ноде, что бы в случае чего быстро на него переключиться.
Как настроить такое поведение?
𝚔𝚟𝚊𝚙𝚜
То есть если удалить под, приходится ждать пока image скачается на другой ноде
Mikhail [azalio]
Не встречал такого. Сделал бы через дескрайб под, гет нодес и докер пулл по крону с мастера.
Mikhail [azalio]
Хотя может и есть такое :)
𝚔𝚟𝚊𝚙𝚜
тоже решение
𝚔𝚟𝚊𝚙𝚜
думаю что это как-то через replicaset должно настраиваться
Роман
Serega
Serega
кстати заметил такую картину, что etcd весьма активно пишет на диск (и судя по докам так и должно быть). Но когда на kvm сервере находится так парочка мастеров (допустим от разных энвайроментов), то уже iops валят под 150-180 непрерывно, что не очень приятно. В kvm используете что-нибудь в духе write cache writeback ? И еще есть наблюдение что xfs показывает себя лучше чем ext4.
Роман
bebebe
maas в k8s никто не загонял?
Vitalii
Alexey
ребята подскажите годный манул для первой попытки установки кубика на 3 машинах
Anton
вручную есть from scratch & hard way и еще что то от coreos
Anton
есть kubeadm и kubespray и их инструкции
Anton
kubeadm не рекомендую только изза того что он не включает tls auth для etcd\api
bebebe
Alexey
Alexey
G72K
G72K
Alexey
Alexey
#install
Anton
https://github.com/poseidon/typhoon
terraform заодно можно посмотреть =)
Anton
только они не парятся об in-place k8s upgrades
Anton
ты писал уже. это круто! =)
Andrey
ScaleWay - какую-то халяву предлагает ? чего-то его тут прям много как-то)
Oleg
там просто относительно дешевые виртуалки для тренировок
G72K
Подрихтовал тут и там, вынес manifests которые создает bootkube в отдельный репо, так что их теперь можно патчить, при этом продолжать получать обновления из свежих bootkube. В итоге пока что налету не обновить только kubelets на мастерах (на воркерах вот пилю фичу чтрбы налету и без перезагрузки) и etcd., но работаю над этим. Может дозреет и получится выложить на гитхаб.
G72K
Поидее надо iPXE ноду собирать ввиде контейнера. Тогда весь сетап с нуля: Запустить один контейнер где-нибудь с конфигом рядом, запустить ноды с загрузкой по ipxe . Пойти пить кофе.
l1njan
посоветуйте, что-нибудь, пожалуйста, что б Gitlab CE + Kubernetes собрать с Autodevops. вто что б прям вжух и работало.
Alexey
Pavel
Народ, есть опыт использования k8s с proxy-mode=userspace в продакшене?
Pavel
Понятно что медленнее, но интересует возможность kube-proxy на-лету детектить недоступные поды и направлять запросы на доступные (если есть).
Pavel
Fault tolerance короче.
Роман
bebebe
Denis
Привет, кто нибудь свои репы для хелм чартов поддерживает? Как это вообще выглядит?
bebebe
Denis
Это я видел, думал может есть плагин какой нибудь для helm типа helm push foo-0.1.0.tgz myrepo
Pavel
nginx например
не, я про коммуникацию через сервисы: если нод в кластере падает, то пока к8s поймет что поды на этой ноде умерли, пройдет 1-5 минут (как настроишь таймауты), и все это время запросы на этот под будут фейлится
я хочу заиспользовать proxy-mode: userspace он вроде как умеет на лету детектить зафейленые поды и отправлять запрос на живую реплику пода
bebebe
Pavel
кто будет прописывать IP подов в nginx и обновлять этот список?
Pavel
и nginx не решает задачу проксирования tcp/udp, то есть это прям вообще из другой области
bebebe
bebebe
bebebe
или ждать когда гугл запилит istio
bebebe
https://github.com/istio/istio
Alexander
Sergei
Oleksandr
Oleksandr
мертвого апстрима детектить и все