Ivan
в аписервер надо
добавил. тоже самое. ничего не изменилось
Knyage
а в /etc/resolv.conf етсь запись о 127.0.0.1 ?)
G72K
по сути мне только docker build нужен
были утилиты, которые образы умеют собирать сами,без докера. имен не помню
G72K
этого не знаю :)
G72K
И заливать в их регистр ?
вот вроде умеет: https://github.com/projectatomic/skopeo
kalloc
thanks
Dmitry
У кого были сбои по инету? Кто в курсе "лажи"?
Роман
@Leorent можешь показать секцию конфига прометея для nginx-vts экстрактора?
Maksim
сек
Maksim
@Leorent можешь показать секцию конфига прометея для nginx-vts экстрактора?
- job_name: nginx-controller-status scrape_interval: 5s scrape_timeout: 5s metrics_path: /metrics scheme: http kubernetes_sd_configs: - api_server: null role: pod namespaces: names: [] relabel_configs: - source_labels: [__meta_kubernetes_pod_label_name] separator: ; regex: nginx-ingress-lb replacement: $1 action: keep - source_labels: [__meta_kubernetes_pod_name] separator: ; regex: (.*) target_label: kubernetes_pod_name replacement: $1 action: replace
Maksim
ммм
Maksim
это ds
Maksim
он получает список подов и ищет нужное имя
Maksim
по хорошему можно ограничить через namespaces: names: []
G72K
кто-нибудь понимает о чем ту речь в 1.8 release notes? The current version DaemonSet, Deployment, ReplicaSet, and StatefulSet kinds are now in the apps/v1beta2 group version. All kinds in the apps/v1beta2 group version add a corresponding conditions kind. что за Conditions kind?
Knyage
ВСе же, как я могу поменять подсеть подов в текущем кластере? Настраивал сеть через calico, уже даже etcd обнулял, и докер чистил, не пойму,где ему надо что прописать\почистить?
Maksim
у калико же своии настройки? я просто не знаю где и что он хранит
Maksim
по хорошему, нужно сначала убрать все контейнеры с докера, что бы докер изменил сеть
Knyage
Ну да,с вои настройки, я его тоже полностью почистил
Maksim
+ удалить интерфейс докера
Maksim
у меня только так меняется адресация в сети докера
Knyage
Я остановил кластеры, остановил етсд, удалил докер и все папки с ними, переустановил + удалил /var/etcd/data , удалил всё что было от calico в /etc/cni/net.d/ , один фиг эта сволочь упрямо мне подсовывает 10.23 подсеть..
Maksim
при живых контейнерах докер не меняет настройки сети.....(ну вроде, у меня только имперический опыт)
Maksim
Knyage
я по сути уже с нуля кластер пересобрал, а что с ним не так - не пойму...какая то дичь :)
Knyage
Я кажись нашел в чем был косяк, сейчас првоерю и отпишусь)
Роман
Во фланели, вроде бы, присваивается переменная окружения с адресом.
Knyage
Ну да.. У меня 2 кластера , и в калико забыл изменить etcd сервера, и они долбились на другой кластер, где хранились настройки. фейспалм :(
Sergey
У Калико свой кластер етсд должен быть
G72K
У Калико свой кластер етсд должен быть
не обязательно. можно в том же, можно без etcd вообще, если задать datastore: kubernetes
Sergey
То что не обязательно я в курсе
Роман
по хорошему можно ограничить через namespaces: names: []
А как-то можно проверить, что экспортер вообще взаимодействует с nginx? А то в логах только то, что сервер запущен.
Maksim
зайти на его порт..там должны быть метрики
Maksim
не пустые
Knyage
У Калико свой кластер етсд должен быть
Т.е. Для калико поднимать отдельные от самого кубера etcd?
Sergey
Рекомендуют да
Knyage
Knyage
А где про этоп очитать можно?
Knyage
почему то думал что как раз таки нужно чтобы все вместе было
Maksim
почему то думал что как раз таки нужно чтобы все вместе было
я бы делал вместе, следить за одним кластером, проще и эффективней ем за двумя
Sergey
Первый раз я эту рекомендацию видел на одном Митапе
Maksim
кстате а где вы калико взяли? дайте ссылочку, хочу понюхать
Sergey
Там была история что кто-то из кубера и калико решили что етсд у них в монопольном доступе и дрогнули чужие записи
Sergey
Это было время 1.5 версии
Maksim
а то мои изыскания как-то не увенчались успехом. Или он совсем пропаретарный и его нуно только покупать
Knyage
кстате а где вы калико взяли? дайте ссылочку, хочу понюхать
https://docs.projectcalico.org/v1.5/getting-started/kubernetes/installation/ тут, ну а там напильником пройтись)
Knyage
хм..
Knyage
На удивление,иногда что-то запускается корректно и без напильника)
Sergey
На счёт рекомендаций
Sergey
https://github.com/projectcalico/calico/blob/master/v1.5/getting-started/kubernetes/installation/index.md
Sergey
Там в требованиях это написанно
Sergey
Calico can share the etcd cluster used by Kubernetes, but it's recommended that a separate cluster is set up.
Sergey
Это как раз в тему, что никто из нас не читает оф документацию
Maksim
Это как раз в тему, что никто из нас не читает оф документацию
мммм А доку вообще читают? Да же когда ломается, не всегда читают
Sergey
Я читаю
Sergey
Бегаю по ишью на гитхабе
Sergey
Перед тем как вообще начинать дергаться
Sergey
Долгое и вдумчивое изучение первоисточника сильно экономит время в дальнейшем
Sergey
Я придерживаюсь мнения старого быка из одного анекдота
Aleksey
Сертификаты чистили?
G72K
Calico can share the etcd cluster used by Kubernetes, but it's recommended that a separate cluster is set up.
важно понимать почему рекомендация именно такая
Maksim
важно понимать почему рекомендация именно такая
вот мне интересно почему они так рекомендуют)
Sergey
Ну я выше писал одну историю с доклада
Sergey
ну и сугубо по классике жанра - кбуре с калико общаются между собой по апи, а не через базу, разнеся на два разных кластера - можно исключить потерю всех данных из-за сбоя в одном компоненте
G72K
вот мне интересно почему они так рекомендуют)
я бы тоже рекоммендовал в документации так. меньше вопросов в рассылку будет
Sergey
сбой в кубере или калико - удаляет все данные из etcd от /, разнеся базы на разные кластеры - геморой получаешь только в одном месте
Sergey
хотя бы даже из этих соображений
Sergey
второй момент - все же болшие кластера кубернетса