@kubernetes_ru

Страница 651 из 958
Mikhail
29.06.2018
08:25:45
всем привет. изучаю k8s совсем с нуля. раскатал деплоймент с hello world, service и ingress для него. сейчас хочу как-то собирать с этого access-log. Как это делается, какими инструментами?
Вы уже посмотрели варианты в гугле? У меня лично собирался через проброшеный сокет рсислога. Но есть масса других решений. Зависит от задач.

Egor
29.06.2018
08:26:05
щас про fluentd статейку читаю

Mikhail
29.06.2018
08:28:52
щас про fluentd статейку читаю
Сейчас для обычных серверов используется filebeat, вижу что про кубер тоже есть https://www.elastic.co/blog/shipping-kubernetes-logs-to-elasticsearch-with-filebeat

Roman
29.06.2018
08:29:27
Ну все просто. У меня есть ранчер 2 и есть какой то тестовый app. Мне необходимо прикрутить к этому приложению домен. Все!

Google
cent
29.06.2018
09:00:28
Привет всем! Подскажите как можно продебажить kibana? Почему-то она не ходит на контейнер ES. Ну или не видит данных Хотя в контейнере kibana курлом можно запросить ES bash-4.2$ curl -s http://elasticsearch:9200/|grep number "number" : "6.2.4", Конфиг простейший bash-4.2$ cat /usr/share/kibana/config/kibana.yml |grep -v ^# —- server.name: kibana server.host: "0" elasticsearch.url: http://elasticsearch:9200

cent
29.06.2018
09:12:17
Tcpdump tcptraceroute
Ну kibana кидает какой-то запрос curl http://127.0.0.1:5601/elasticsearch/_msearch {"statusCode":404,"error":"Not Found","message":"Not Found"} через tcpdump не вариант искать

Fike
29.06.2018
09:12:45
404 значит, что HTTP точно есть

Кирилл
29.06.2018
09:13:19
Всем привет. Начал изучение k8s, для этого поставил 3 машины в вбокс. На них настроил nat and internal network. Теперь у меня беда при расскатке flannel. Он не хочет поднимать поды на 2 нодах с проблемой: Error registering network: failed to acquire lease: node "kub2" pod cidr not assigned хотя я делал:

kubeadm init --apiserver-advertise-address 192.168.1.1 --service-cidr 192.168.1.0/24 --pod-network-cidr 192.168.1.0/24

cent
29.06.2018
09:18:17
Моя вина. Я просто тупанул и не выставил дату выборки))

Ivan
29.06.2018
09:43:33
Привет! А кто нибудь подключал к гитлабу куб в качестве ранера? подскажите, что может означать ошибка ERROR: Job failed: error executing remote command: command terminated with non-zero exit code: Error executing in Docker Container: 137 раннер к кубу подключается, создаёт под, потом валится в эту ошибку

Ivan
29.06.2018
09:47:57
ок, сейчас проверю )

точнее, лучше уберу пока совсем )

Google
Ivan
29.06.2018
09:52:54
ага, теперь Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running? конфиг такой concurrent = 3 check_interval = 0 log_level = "warning" [[runners]] name = "Kubernetes Runner" url = "https://gitlab.company.ru" token = "71da107d71436d2326cd2f55573c51" executor = "kubernetes" [runners.kubernetes] host = "https://10.1.29.10:6443" cert_file = "/etc/ssl/kubernetes/apiserver.pem" key_file = "/etc/ssl/kubernetes/apiserver-key.pem" ca_file = "/etc/ssl/kubernetes/ca.pem" namespace = "gitlab" image = "docker:dind" privileged = true poll_interval = 3 poll_timeout = 360 [runners.kubernetes.node_selector] master = "true"

не понимаю, зачем ему ещё докер нужен ((

или может имэдж надо использовать другой?

Andrey
29.06.2018
09:55:14
Тут не помогу уже, не делал так.

Ivan
29.06.2018
09:55:34
он кстати реально дефективный. я его использовал для ранера на докере и приходилось в него прокидывать сокет от внешнего докера

хотя он же как бы докер-ин-докер т.е. у него свой сокет должен быть внутри

Volodimir Fedorov
29.06.2018
10:06:06
ребята как почиститить кеш у kube-dns? отдает старый ип.. вышестоящий днс возвращает правильный

Andrey
29.06.2018
10:07:29
kubectl delete pod

Mikhail
29.06.2018
10:11:12
не понимаю, зачем ему ещё докер нужен ((
гитлаб раннер для запуска раннера поднимает докер контейнер

гитлаб раннер для запуска раннера поднимает докер контейнер
хотя это если не для кубера, в кубере он создает под конечно.

я запускал в кубере, все норм было, делал по доке.

Vadim
29.06.2018
10:18:50
хотя он же как бы докер-ин-докер т.е. у него свой сокет должен быть внутри
нет конечно, полностью докеризированного докера нет и не будет - ему нужен настоящий сокет с хоста

kvaps
29.06.2018
10:19:10
да ну?

У меня gitlab-runner запущен в кубере но sidecar-докером, когда приходит job он создает контейнер в том самом докере, не в хостовом и использует его для сбора images

Huan
29.06.2018
10:24:28
привет всем. кто-то обновлял кубер с 1.10.х на 1.11? есть ли какие-то проблемы при апгрейде?

Tores
29.06.2018
10:26:41
Господа - сбилдил свой докер образ, docker images - его показывает, но при деплое ошибка: Failed to pull image "myjenkins-image:1.0": rpc error: code = Unknown desc = repository - как указать в deployment что его надо брать из локального хранилища, или так совсем нельзя и нужно наворачивать приватный репозиторий докера

kvaps
29.06.2018
10:28:19
https://jpetazzo.github.io/2015/09/03/do-not-use-docker-in-docker-for-ci/
ну не знаю, для сборки образов dind вполне подходит, тем более что хостовый докер может иметь отключенную сеть или вообще не быть докером как таковым

Google
kvaps
29.06.2018
10:28:53
тогда собрать образ без --network=host вообще будет проблематично

Mikhail
29.06.2018
10:29:07
а, локальное хранилище
если политика не стоит что всегда скачивать, то должен браться из локального кеша

Tores
29.06.2018
10:30:06
о гдето такое было IfNot Present

Nikolay
29.06.2018
10:48:39
а ни у кого нет такого, что после апдейта на 1.11 поды зависают в статусе Terminating?

kvaps
29.06.2018
10:49:15
o_O ты же по русски не говорил?)

Nikolay
29.06.2018
10:50:36
шта?

kvaps
29.06.2018
10:50:39
бывает такое когда контенер на хосте не правильно отрабатывает exit-codes

прости, я твою аватарку с Quang перепутал)

Nikolay
29.06.2018
10:51:50
Артамонов Игорь
29.06.2018
10:51:52
Коллеги, такой вопрос. Хочу объединить два разных контейнера в один сервис. Пишу соответсвующий deployments (работаю через helm) Возник вопрос. Есть параметр replicas, который, по идее, определяет количество реплик одного пода. Однако в дефолте он находится в spec на нижнем уровне. Как себя поведет кубер при раскатывании релиза? Он создаст поды с указанным количество реплик каждого типа? Или оно не поймет, что нужно сделать и сломается? Предметно, чтобы было понятно, о чем я - скрин



Nikolay
29.06.2018
10:52:04
а вот после апдейта неймспейсы перестали убиваться, потому что виснут поды

kvaps
29.06.2018
10:53:10
а на хосте через docker stop убиваются?

Nikolay
29.06.2018
10:54:17
а на хосте через docker stop убиваются?
так в том и дело, контейнеры уже мертвы, а под висит

видимо, калика глючит

Артамонов Игорь
29.06.2018
10:58:44
Поясни, пожалуйста. >Однако в дефолте он находится в spec на нижнем уровне
Из опыта того, что я понял при работе с кубером. Это же, по сути, yaml, который в json трансферится при выполнении apply. Т.е., сейчас у меня в конфиге так: spec: replicas: 1 selector: xxx template: metadata: yyy containers: zzz - вот тут информация, касательно используемых в деплойменте контейнеров. В моем случае - их два ( с двумя разными приложениями) Вопрос у меня касательно "spec: replicas: 1" В текущем его расположении. Применится ли этот параметр для каждого пода(т.е. в рамках сервиса - оно будет объявлено "глобально"), или же он не поймет. что его нужно использовать таким образом и просто сломается? Типа, вопрос, не нужно ли мне replicas: подставить под containers.spec?

Артамонов Игорь
29.06.2018
10:59:49
а. А чья это сущность? deployment'a?

Google
Andrey
29.06.2018
11:00:00
Это сущность Deployment.

Артамонов Игорь
29.06.2018
11:00:22
Это сущность Deployment.
Понял. Спасибо :) Тогда вопрос исчерпан

надо видимо эксперементировать. Все еще интересно, как оно отработает с разными приложухами в рамках одного сервиса

хы

Артамонов Игорь
29.06.2018
11:01:45
В рамках одного Service или Pod? В чём проблемы могут быть?
Одного Service. Не могу ответить на второй вопрос - не знаю. Впервые появилась необходимость разные приложения в один сервис закинуть

Admin
ERROR: S client not available

Артамонов Игорь
29.06.2018
11:01:47
=)

Артамонов Игорь
29.06.2018
11:06:24
По портам распихай просто и всё. Они задаются в Container.ports и Service.spec.ports.
забавно У меня сейчас. видимо, в values что-то такое: image-back.service.httpPort + image-back.service.httpsPort image-front.service.httpPort + image-front.service.httpsPort Надо перенести из service в container, видмо, чтобы красиво было.

Andrey
29.06.2018
11:07:21
забавно У меня сейчас. видимо, в values что-то такое: image-back.service.httpPort + image-back.service.httpsPort image-front.service.httpPort + image-front.service.httpsPort Надо перенести из service в container, видмо, чтобы красиво было.
Порт задаётся и в контейнере, и в поде. А ещё команде на запуск или переменной окружения надо порт передать, чтобы процесс listen socket правильно прибил.

Артамонов Игорь
29.06.2018
11:08:04
И в сервисе

еб%шки-воробушки :)

Alexey
29.06.2018
11:09:56
http://i.otzovik.com/2014/02/20/811403/img/11947929.jpg

Andrey
29.06.2018
11:11:58
Да, в сервисе. В контейнере и сервисе, сорри.

Vadim
29.06.2018
11:59:20
Вопрос к админам чата Здесь можно запостить ссылку на оффлайн курс по k8s? Курс платный, все дела. Но + предварительно будет бесплатный вебинар по сетям в k8s

Mikhail
29.06.2018
12:00:06
@SinTeZoiD ^

Egor
29.06.2018
12:01:33
подскажите, где вообще лежат логи nginx-ingress? просто в виде файлов

Google
Михаил
29.06.2018
12:03:00
Что за сети

Как глубоко

Vadim
29.06.2018
12:03:38
Спасибо

Про вебинар и немного курс вот: https://habr.com/company/southbridge/blog/415625/

Михаил
29.06.2018
12:12:36
Программа вебинара: Как организованы сети в Kubernetes.

мм

там можно часа 4 вещать

а можно за 10 минут пройтись по основным сетевым плагинам

Vadim
29.06.2018
12:13:48
Михаил
29.06.2018
12:13:57
Ну так прикольнее
платят больше?)

Sergey
29.06.2018
12:14:10
на кубере тур уже есть зачем курсы опять гикбрейнс какой то устроили

Alan
29.06.2018
12:14:57
платят больше?)
Теперь ещё и убунты админят же

Sergey
29.06.2018
12:15:07
в инете по куберу куча митапов и мануалов kubecon освещает последние технологии в контейнеризации и оркестрации

либо реклама саусбриджа либо вы плодите эникеев кубернетисовских

Михаил
29.06.2018
12:16:02
я не могу остановить этот поток

Страница 651 из 958