Knyage
а в /etc/resolv.conf етсь запись о 127.0.0.1 ?)
Ivan
kalloc
G72K
этого не знаю :)
kalloc
thanks
Dmitry
У кого были сбои по инету? Кто в курсе "лажи"?
Ivan
Роман
@Leorent можешь показать секцию конфига прометея для nginx-vts экстрактора?
Ivan
Роман
Maksim
сек
Maksim
@Leorent можешь показать секцию конфига прометея для nginx-vts экстрактора?
- job_name: nginx-controller-status
scrape_interval: 5s
scrape_timeout: 5s
metrics_path: /metrics
scheme: http
kubernetes_sd_configs:
- api_server: null
role: pod
namespaces:
names: []
relabel_configs:
- source_labels: [__meta_kubernetes_pod_label_name]
separator: ;
regex: nginx-ingress-lb
replacement: $1
action: keep
- source_labels: [__meta_kubernetes_pod_name]
separator: ;
regex: (.*)
target_label: kubernetes_pod_name
replacement: $1
action: replace
Роман
Maksim
ммм
Maksim
это ds
Maksim
он получает список подов и ищет нужное имя
Maksim
по хорошему можно ограничить через namespaces:
names: []
G72K
кто-нибудь понимает о чем ту речь в 1.8 release notes?
The current version DaemonSet, Deployment, ReplicaSet, and StatefulSet kinds are now in the apps/v1beta2 group version.
All kinds in the apps/v1beta2 group version add a corresponding conditions kind.
что за Conditions kind?
Knyage
ВСе же, как я могу поменять подсеть подов в текущем кластере?
Настраивал сеть через calico, уже даже etcd обнулял, и докер чистил, не пойму,где ему надо что прописать\почистить?
Maksim
у калико же своии настройки? я просто не знаю где и что он хранит
Maksim
по хорошему, нужно сначала убрать все контейнеры с докера, что бы докер изменил сеть
Knyage
Ну да,с вои настройки, я его тоже полностью почистил
Maksim
+ удалить интерфейс докера
Maksim
у меня только так меняется адресация в сети докера
Knyage
Я остановил кластеры, остановил етсд, удалил докер и все папки с ними, переустановил + удалил /var/etcd/data , удалил всё что было от calico в /etc/cni/net.d/ , один фиг эта сволочь упрямо мне подсовывает 10.23 подсеть..
Maksim
при живых контейнерах докер не меняет настройки сети.....(ну вроде, у меня только имперический опыт)
Maksim
Knyage
я по сути уже с нуля кластер пересобрал, а что с ним не так - не пойму...какая то дичь :)
Роман
Knyage
Я кажись нашел в чем был косяк, сейчас првоерю и отпишусь)
Роман
Во фланели, вроде бы, присваивается переменная окружения с адресом.
Knyage
Ну да..
У меня 2 кластера , и в калико забыл изменить etcd сервера, и они долбились на другой кластер, где хранились настройки.
фейспалм :(
Sergey
У Калико свой кластер етсд должен быть
Sergey
То что не обязательно я в курсе
Maksim
Maksim
зайти на его порт..там должны быть метрики
Maksim
не пустые
Sergey
Рекомендуют да
Knyage
Knyage
А где про этоп очитать можно?
Knyage
почему то думал что как раз таки нужно чтобы все вместе было
Sergey
Первый раз я эту рекомендацию видел на одном Митапе
Knyage
Maksim
кстате а где вы калико взяли? дайте ссылочку, хочу понюхать
Sergey
Там была история что кто-то из кубера и калико решили что етсд у них в монопольном доступе и дрогнули чужие записи
Sergey
Это было время 1.5 версии
Maksim
а то мои изыскания как-то не увенчались успехом. Или он совсем пропаретарный и его нуно только покупать
Knyage
хм..
Maksim
Knyage
На удивление,иногда что-то запускается корректно и без напильника)
Sergey
На счёт рекомендаций
Sergey
https://github.com/projectcalico/calico/blob/master/v1.5/getting-started/kubernetes/installation/index.md
Sergey
Там в требованиях это написанно
Sergey
Calico can share the etcd cluster used by Kubernetes, but it's recommended that a separate cluster is set up.
Sergey
Это как раз в тему, что никто из нас не читает оф документацию
Sergey
Я читаю
Sergey
Бегаю по ишью на гитхабе
Sergey
Перед тем как вообще начинать дергаться
Knyage
Sergey
Долгое и вдумчивое изучение первоисточника сильно экономит время в дальнейшем
Sergey
Я придерживаюсь мнения старого быка из одного анекдота
Aleksey
Сертификаты чистили?
G72K
Maksim
Sergey
Ну я выше писал одну историю с доклада
Sergey
ну и сугубо по классике жанра - кбуре с калико общаются между собой по апи, а не через базу, разнеся на два разных кластера - можно исключить потерю всех данных из-за сбоя в одном компоненте
G72K
Sergey
сбой в кубере или калико - удаляет все данные из etcd от /, разнеся базы на разные кластеры - геморой получаешь только в одном месте
Sergey
хотя бы даже из этих соображений
Sergey
второй момент - все же болшие кластера кубернетса