
Mikhail
29.06.2018
08:25:45

Egor
29.06.2018
08:26:05
щас про fluentd статейку читаю

Mikhail
29.06.2018
08:28:52
щас про fluentd статейку читаю
Сейчас для обычных серверов используется filebeat, вижу что про кубер тоже есть https://www.elastic.co/blog/shipping-kubernetes-logs-to-elasticsearch-with-filebeat

Roman
29.06.2018
08:29:27
Ну все просто. У меня есть ранчер 2 и есть какой то тестовый app. Мне необходимо прикрутить к этому приложению домен. Все!

Google

cent
29.06.2018
09:00:28
Привет всем!
Подскажите как можно продебажить kibana?
Почему-то она не ходит на контейнер ES. Ну или не видит данных
Хотя в контейнере kibana курлом можно запросить ES
bash-4.2$ curl -s http://elasticsearch:9200/|grep number
"number" : "6.2.4",
Конфиг простейший
bash-4.2$ cat /usr/share/kibana/config/kibana.yml |grep -v ^#
—-
server.name: kibana
server.host: "0"
elasticsearch.url: http://elasticsearch:9200

Михаил
29.06.2018
09:02:43

Max
29.06.2018
09:09:33

cent
29.06.2018
09:12:17
Tcpdump tcptraceroute
Ну kibana кидает какой-то запрос
curl http://127.0.0.1:5601/elasticsearch/_msearch
{"statusCode":404,"error":"Not Found","message":"Not Found"}
через tcpdump не вариант искать

Fike
29.06.2018
09:12:45
404 значит, что HTTP точно есть

Кирилл
29.06.2018
09:13:19
Всем привет. Начал изучение k8s, для этого поставил 3 машины в вбокс. На них настроил nat and internal network. Теперь у меня беда при расскатке flannel. Он не хочет поднимать поды на 2 нодах с проблемой:
Error registering network: failed to acquire lease: node "kub2" pod cidr not assigned
хотя я делал:
kubeadm init --apiserver-advertise-address 192.168.1.1 --service-cidr 192.168.1.0/24 --pod-network-cidr 192.168.1.0/24

cent
29.06.2018
09:18:17
Моя вина. Я просто тупанул и не выставил дату выборки))

Ivan
29.06.2018
09:43:33
Привет! А кто нибудь подключал к гитлабу куб в качестве ранера?
подскажите, что может означать ошибка
ERROR: Job failed: error executing remote command: command terminated with non-zero exit code: Error executing in Docker Container: 137
раннер к кубу подключается, создаёт под, потом валится в эту ошибку

Andrey
29.06.2018
09:45:07
Проверьте, что лимиты нормальные стоят в поде.

Ivan
29.06.2018
09:47:57
ок, сейчас проверю )
точнее, лучше уберу пока совсем )

Google

Ivan
29.06.2018
09:52:54
ага, теперь
Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?
конфиг такой
concurrent = 3
check_interval = 0
log_level = "warning"
[[runners]]
name = "Kubernetes Runner"
url = "https://gitlab.company.ru"
token = "71da107d71436d2326cd2f55573c51"
executor = "kubernetes"
[runners.kubernetes]
host = "https://10.1.29.10:6443"
cert_file = "/etc/ssl/kubernetes/apiserver.pem"
key_file = "/etc/ssl/kubernetes/apiserver-key.pem"
ca_file = "/etc/ssl/kubernetes/ca.pem"
namespace = "gitlab"
image = "docker:dind"
privileged = true
poll_interval = 3
poll_timeout = 360
[runners.kubernetes.node_selector]
master = "true"
не понимаю, зачем ему ещё докер нужен ((
или может имэдж надо использовать другой?

Andrey
29.06.2018
09:55:14
Тут не помогу уже, не делал так.

Ivan
29.06.2018
09:55:34
он кстати реально дефективный. я его использовал для ранера на докере и приходилось в него прокидывать сокет от внешнего докера
хотя он же как бы докер-ин-докер т.е. у него свой сокет должен быть внутри

Volodimir Fedorov
29.06.2018
10:06:06
ребята как почиститить кеш у kube-dns? отдает старый ип.. вышестоящий днс возвращает правильный

Andrey
29.06.2018
10:07:29
kubectl delete pod

Mikhail
29.06.2018
10:11:12
я запускал в кубере, все норм было, делал по доке.

Vadim
29.06.2018
10:18:50

kvaps
29.06.2018
10:19:10
да ну?
У меня gitlab-runner запущен в кубере но sidecar-докером, когда приходит job он создает контейнер в том самом докере, не в хостовом и использует его для сбора images

Vadim
29.06.2018
10:22:40

Huan
29.06.2018
10:24:28
привет всем. кто-то обновлял кубер с 1.10.х на 1.11? есть ли какие-то проблемы при апгрейде?

Tores
29.06.2018
10:26:41
Господа - сбилдил свой докер образ, docker images - его показывает, но при деплое ошибка: Failed to pull image "myjenkins-image:1.0": rpc error: code = Unknown desc = repository - как указать в deployment что его надо брать из локального хранилища, или так совсем нельзя и нужно наворачивать приватный репозиторий докера

Mikhail
29.06.2018
10:27:49
а, локальное хранилище

kvaps
29.06.2018
10:28:19

Google

kvaps
29.06.2018
10:28:53
тогда собрать образ без --network=host вообще будет проблематично

Mikhail
29.06.2018
10:29:07

Tores
29.06.2018
10:30:06
о гдето такое было IfNot Present

Nikolay
29.06.2018
10:48:39
а ни у кого нет такого, что после апдейта на 1.11 поды зависают в статусе Terminating?

kvaps
29.06.2018
10:49:15
o_O ты же по русски не говорил?)

Nikolay
29.06.2018
10:50:36
шта?

kvaps
29.06.2018
10:50:39
бывает такое когда контенер на хосте не правильно отрабатывает exit-codes
прости, я твою аватарку с Quang перепутал)

Nikolay
29.06.2018
10:51:50

Артамонов Игорь
29.06.2018
10:51:52
Коллеги, такой вопрос.
Хочу объединить два разных контейнера в один сервис. Пишу соответсвующий deployments (работаю через helm)
Возник вопрос.
Есть параметр replicas, который, по идее, определяет количество реплик одного пода. Однако в дефолте он находится в spec на нижнем уровне. Как себя поведет кубер при раскатывании релиза? Он создаст поды с указанным количество реплик каждого типа? Или оно не поймет, что нужно сделать и сломается?
Предметно, чтобы было понятно, о чем я - скрин

Nikolay
29.06.2018
10:52:04
а вот после апдейта неймспейсы перестали убиваться, потому что виснут поды

kvaps
29.06.2018
10:53:10
а на хосте через docker stop убиваются?

Andrey
29.06.2018
10:53:26

Nikolay
29.06.2018
10:54:17
видимо, калика глючит

Артамонов Игорь
29.06.2018
10:58:44
Поясни, пожалуйста.
>Однако в дефолте он находится в spec на нижнем уровне
Из опыта того, что я понял при работе с кубером. Это же, по сути, yaml, который в json трансферится при выполнении apply.
Т.е., сейчас у меня в конфиге так:
spec:
replicas: 1
selector:
xxx
template:
metadata:
yyy
containers:
zzz - вот тут информация, касательно используемых в деплойменте контейнеров. В моем случае - их два ( с двумя разными приложениями)
Вопрос у меня касательно
"spec:
replicas: 1"
В текущем его расположении. Применится ли этот параметр для каждого пода(т.е. в рамках сервиса - оно будет объявлено "глобально"), или же он не поймет. что его нужно использовать таким образом и просто сломается?
Типа, вопрос, не нужно ли мне replicas: подставить под containers.spec?

Andrey
29.06.2018
10:59:17

Артамонов Игорь
29.06.2018
10:59:49
а. А чья это сущность? deployment'a?

Google

Andrey
29.06.2018
11:00:00
Это сущность Deployment.

Артамонов Игорь
29.06.2018
11:00:22
надо видимо эксперементировать. Все еще интересно, как оно отработает с разными приложухами в рамках одного сервиса
хы

Andrey
29.06.2018
11:01:09

Артамонов Игорь
29.06.2018
11:01:45

Admin
ERROR: S client not available

Артамонов Игорь
29.06.2018
11:01:47
=)

Andrey
29.06.2018
11:04:04

Артамонов Игорь
29.06.2018
11:06:24

Andrey
29.06.2018
11:07:21

Артамонов Игорь
29.06.2018
11:08:04
И в сервисе
еб%шки-воробушки :)

Alexey
29.06.2018
11:09:56
http://i.otzovik.com/2014/02/20/811403/img/11947929.jpg

Andrey
29.06.2018
11:11:58
Да, в сервисе. В контейнере и сервисе, сорри.

Vadim
29.06.2018
11:59:20
Вопрос к админам чата
Здесь можно запостить ссылку на оффлайн курс по k8s? Курс платный, все дела. Но + предварительно будет бесплатный вебинар по сетям в k8s

Mikhail
29.06.2018
12:00:06
@SinTeZoiD ^

Egor
29.06.2018
12:01:33
подскажите, где вообще лежат логи nginx-ingress? просто в виде файлов

Михаил
29.06.2018
12:02:26
Подробнее про бесплатный вебинар хочу только

Google

Михаил
29.06.2018
12:03:00
Что за сети
Как глубоко

Vadim
29.06.2018
12:03:38
Спасибо
Про вебинар и немного курс вот: https://habr.com/company/southbridge/blog/415625/

Михаил
29.06.2018
12:12:36
Программа вебинара:
Как организованы сети в Kubernetes.
мм
там можно часа 4 вещать
а можно за 10 минут пройтись по основным сетевым плагинам

Vadim
29.06.2018
12:13:48

Михаил
29.06.2018
12:13:57

Sergey
29.06.2018
12:14:10
на кубере тур уже есть
зачем курсы опять гикбрейнс какой то устроили

Alan
29.06.2018
12:14:57

Sergey
29.06.2018
12:15:07
в инете по куберу куча митапов и мануалов
kubecon освещает последние технологии в контейнеризации и оркестрации
либо реклама саусбриджа либо вы плодите эникеев кубернетисовских

Михаил
29.06.2018
12:16:02
я не могу остановить этот поток