Sergei
я тут веселее нашел. нельзя из кубернетеса на GKE пуллить образа из реджистри, который на этом же кубернетесе
Sergei
потому что LB
Sergei
и из нод собственно нельзя дойти ни на один из адресов, который type=LoadBalancer на этом же кластере
Serega
а че не пушить\пулить в гугловский реджистри?
Oleg
решил с kubespray kubernetes на centos накатать. Что-то все крепко зависло на container_download | Download containers if pull is required or told to always pull
Oleg
что-то пропустил? на ubuntu все накатывалось на раз
Алексей
Коллеги, у кого есть оператор для memcached под куб 1,8 ?
Oleg
selinux отключить?
Алексей
selinux отключить?
попробуй. У нас отключен - всё накатывалось
Oleg
проверил - отключено из коробки
Алексей
а руками пулл делается?
Oleg
ага, на ноде все пулится
Victor
Подскажите, как в HELM расшарить свои чарты по сети, я не понял как получить что то вроде helm serve --address ... попробовал через nginx-proxy на .helm/repository/local направить, но хелм почему то с 127.0.0.1:8879 пытается качать, а не с указанноко в зависимостях маршрута, хотя поиск чартов по репозиторию работает
Oleg
чет тупило на центоси но в конце концов установилось
Serega
а kubespray с kvm кто-то пользовал? большие танцы с бубном?
Oleg
в общем есть мнение что это у scaleway центось тормозная
Oleg
убунту как-то у них пошустрее
G72K
и из нод собственно нельзя дойти ни на один из адресов, который type=LoadBalancer на этом же кластере
Я чего то думал, что к сервисам внутри напрямую через iptables ходят. Вы возможно по внешнему днс обращаетесь к сервису
Oleg
хотя не факт
Oleg
а кто пользует openshift?
Sergei
Я чего то думал, что к сервисам внутри напрямую через iptables ходят. Вы возможно по внешнему днс обращаетесь к сервису
конечно я по внешнему днсу обращаюсь. потому что это не ломает семантику для пользователей. как запушил - с тем же именем и спуллил. собственно, с этим и проблемы нет, просто наблюдение забавное и на дебаг слишком многовато времени потратил.
𝚔𝚟𝚊𝚙𝚜
Привет, слышал Kubernetes умеет зараннее скачивать image для контейнера на другой ноде, что бы в случае чего быстро на него переключиться. Как настроить такое поведение?
𝚔𝚟𝚊𝚙𝚜
То есть если удалить под, приходится ждать пока image скачается на другой ноде
Mikhail [azalio]
Не встречал такого. Сделал бы через дескрайб под, гет нодес и докер пулл по крону с мастера.
Mikhail [azalio]
Хотя может и есть такое :)
𝚔𝚟𝚊𝚙𝚜
тоже решение
𝚔𝚟𝚊𝚙𝚜
думаю что это как-то через replicaset должно настраиваться
Роман
Serega
кстати заметил такую картину, что etcd весьма активно пишет на диск (и судя по докам так и должно быть). Но когда на kvm сервере находится так парочка мастеров (допустим от разных энвайроментов), то уже iops валят под 150-180 непрерывно, что не очень приятно. В kvm используете что-нибудь в духе write cache writeback ? И еще есть наблюдение что xfs показывает себя лучше чем ext4.
bebebe
maas в k8s никто не загонял?
Khramov
В новом kubelet для вас ipvs сделали, должно помочь в теории
Вот мы сейчас в срочном порядке разворачивает новый кластер с 1.8 и собираемся тестить. А других вариантов нет?
Khramov
Можете поальфатестить kube-router :)
Его тоже рассматривали, второй в очереди на тест :)
Alexey
ребята подскажите годный манул для первой попытки установки кубика на 3 машинах
Anton
вручную есть from scratch & hard way и еще что то от coreos
Anton
есть kubeadm и kubespray и их инструкции
Anton
kubeadm не рекомендую только изза того что он не включает tls auth для etcd\api
Alexey
#install
Anton
https://github.com/poseidon/typhoon terraform заодно можно посмотреть =)
Anton
только они не парятся об in-place k8s upgrades
Oleg
ребята подскажите годный манул для первой попытки установки кубика на 3 машинах
я для себя написал мануал под kubespray https://medium.com/@olegsmetanin/how-to-setup-baremetal-kubernetes-cluster-with-kubespray-and-deploy-ingress-controller-with-170cdb5ac50d
G72K
только они не парятся об in-place k8s upgrades
По этому и заготовка ) я взял ignition темлпейты, оьернул в ансибл который готовит pxe сервер с matchbox
Anton
ты писал уже. это круто! =)
Andrey
ScaleWay - какую-то халяву предлагает ? чего-то его тут прям много как-то)
Oleg
там просто относительно дешевые виртуалки для тренировок
G72K
Подрихтовал тут и там, вынес manifests которые создает bootkube в отдельный репо, так что их теперь можно патчить, при этом продолжать получать обновления из свежих bootkube. В итоге пока что налету не обновить только kubelets на мастерах (на воркерах вот пилю фичу чтрбы налету и без перезагрузки) и etcd., но работаю над этим. Может дозреет и получится выложить на гитхаб.
G72K
Поидее надо iPXE ноду собирать ввиде контейнера. Тогда весь сетап с нуля: Запустить один контейнер где-нибудь с конфигом рядом, запустить ноды с загрузкой по ipxe . Пойти пить кофе.
l1njan
посоветуйте, что-нибудь, пожалуйста, что б Gitlab CE + Kubernetes собрать с Autodevops. вто что б прям вжух и работало.
Pavel
Народ, есть опыт использования k8s с proxy-mode=userspace в продакшене?
Pavel
Понятно что медленнее, но интересует возможность kube-proxy на-лету детектить недоступные поды и направлять запросы на доступные (если есть).
Pavel
Fault tolerance короче.
Denis
Привет, кто нибудь свои репы для хелм чартов поддерживает? Как это вообще выглядит?
Denis
Это я видел, думал может есть плагин какой нибудь для helm типа helm push foo-0.1.0.tgz myrepo
Pavel
nginx например
не, я про коммуникацию через сервисы: если нод в кластере падает, то пока к8s поймет что поды на этой ноде умерли, пройдет 1-5 минут (как настроишь таймауты), и все это время запросы на этот под будут фейлится я хочу заиспользовать proxy-mode: userspace он вроде как умеет на лету детектить зафейленые поды и отправлять запрос на живую реплику пода
Pavel
кто будет прописывать IP подов в nginx и обновлять этот список?
Pavel
и nginx не решает задачу проксирования tcp/udp, то есть это прям вообще из другой области
bebebe
кто будет прописывать IP подов в nginx и обновлять этот список?
можно в nginx (+lua) ходить в k8s за живыми ресурсами
bebebe
или ждать когда гугл запилит istio
bebebe
https://github.com/istio/istio
Oleksandr
Pavel
афаик если настроить ливенесс пробы, то заметно быстрее будет
насколько быстрее? интересует чтоб вообще без потерь. proxy-mode: userspace не пробовали?
Pavel
да кто угодно, можно все вписать, скопом
ингресс это не про то, речь про коммуникацию между сервисам nginx->php-fpm, например, или php->redis
Oleksandr
мертвого апстрима детектить и все