Vitaliy
23.09.2017
20:12:00
Насчёт поддержки cache из gitlab-ci.yml в kubernetes executor были какие-то открытые issues, но я до этого не добрался и вернулся на docker executor...
Mikhail
23.09.2017
22:05:37
vvk
24.09.2017
08:06:04
Развернул k8s ansible-ом в vm-ках (libvirt) https://github.com/kubernetes/contrib/tree/master/ansible/vagrant
master-нода постоянно чем-то занята, хотя ещё никаких POD-ов нет, создаёт ощутимое IO. Это нормально вообще?
Ага, похоже это был баг в box-е, юзал fedora-atomic-25, сменил на 26 - всё ровно стало
Google
Artemiy
24.09.2017
09:23:18
привет всем, использую kubernetes в google cloud. как мне вытащить tcp наружу, вернее как вытащить я знаю, создал service у которого type=LoadBalancer. у меня есть статический ip который я прописал в loadBalancerIP. Но я не хочу завязвыаться на ip. Я хочу указать ИМЯ, которое я указал данному ip в google cloud. Как быть? а то когда ip сменю, во всех конфигах этот хардкод менять?
С ингресом там все круто, создаешь его с аннотацией kubernetes.io/ingress.global-static-ip-name: external-ip , и все, он по имени определяет внешний ip. Но в GCE нельзя создать ingress который умеет TCP, только HTTP(S)
Roman
24.09.2017
09:52:05
Всем добрый день
С kubernetes начал работать только 2 недели назад, до этого работал только с чистым Docker и Rancher,Swarm
И пока у меня не все в голове сходится. Я заранее извеняюсь за тупой впрос но я не нашел вменяемого ответа
У меня есть контейнер который пишет все логи в stdout и мне нужно всю эту радость отправлять в ELK или Graylog. Сейчас в swarm это делается с попомщью log-driver
Прочитал я про fluentd и logspout но тут вопрос умеют ли они отпралять по конкретному контейнеру логи, так как увидел в конфигах /var/lib/docker/containers/*/*.log ?
Или есть еще какие то способы логировать?
Работаю на немецкую компанию, сейчас проект связан с конференциями. Помочь на данном этапе развития вряд ли помогу чем то с кубернетесом, узнал про группу при поиске телеграмм сообществ.
#whois
Сергей
24.09.2017
12:41:34
ну если у вас в качестве рантайма докер, то никто не мешает юзать его же лог драйвер
если софт вашей разработки - научити его самому писать логи в логштеш тот же
Andrey
24.09.2017
12:50:23
самому в логстеш? это же противоречит 12fa ?
а вообще через fluentd может сделать, вот пример одного из коллег с этого канала: https://github.com/kayrus/elk-kubernetes
Сергей
24.09.2017
12:52:53
Нет не противоречит
мы просто подменили дырку /dev/stdout на другую
главный посыл 12 факторов остается, система сама не занимается обработкой логов
а только пишет поток)
Fike
24.09.2017
13:00:22
в 12fa пункт про логирование в stdout - он про портируемость
Google
Сергей
24.09.2017
13:01:17
вот у нас приложение еще до докера писало логи в редис, а оттуда логстеш их выгребал и дальше по цепочке
приложение полностью нам подконтрольное и инфраструктура, я не виду смысла было переделывать сие на стдоут)
с другой стороны, если ты не знаешь где будет твое приложение работать, то stdout размуный вариант
но я бы еще добавил в конфигурацию приложения, в каком формате срать логи
плейт текст, или json как сейчас любят
а вообще, логирование как и мониторинг в целом - такая холиварная тема
Vitaliy
24.09.2017
13:15:33
Fike
24.09.2017
13:20:28
Сергей
24.09.2017
13:28:08
может
у него есть среда которая повторяет прод
просто в меньших маштабах
Fike
24.09.2017
13:31:38
я же и говорю, что ее надо разворачивать и поддерживать
Сергей
24.09.2017
13:34:06
это не велика проблема, если честно
ну и еще момент, сейчас очень мало кто сам реализовывает логирование, обычно юзают готовые решения, нет никакой проблемы реализовать на уровне конфигурации метод логирования и куда слать)
Konstantin
24.09.2017
17:04:57
А правда что - контейнеры в кубе по 700Мб размером?(конечно все зависит от приложения но все же)?
Fike
24.09.2017
17:06:01
контейнеры в кубе не отличаются от обычных контейнеров ничем
Сергей
24.09.2017
17:08:08
начались уже легенды
Roman
24.09.2017
17:10:14
Отправлять все логи докера нету смысла, так как там не одно приложение на ноде. Если было бы одно то можно и filebeat натравить на json логи из директории, а так не угадаешь где нужное тебе приложение
Paul
24.09.2017
17:17:32
Google
Vitaliy
24.09.2017
17:30:36
Мои 5 копеек про логи:
В докер включен journald log driver. Journalbeat daemonset отправляет логи в graylog beats input.
Anton
25.09.2017
06:47:55
Mikhail
25.09.2017
07:10:08
https://www.slideshare.net/YuriBushmelev/logging-in-dockerized-environment
Vitaliy
25.09.2017
07:11:29
Anton
25.09.2017
07:20:08
спасибо. чет slideshare.net недоступен у меня
vvk
25.09.2017
07:29:32
Mikhail
25.09.2017
07:31:08
Use vpn! :)
Evgenii
25.09.2017
07:55:19
а есть кто из Lazada?
Mikhail
25.09.2017
08:17:41
А почему вы спрашиваете?
Zloy Dobriy
25.09.2017
08:20:21
Прост
Evgenii
25.09.2017
08:26:20
интересно пообщаться в личке
спросить что да как
Mikhail
25.09.2017
08:27:41
Ну пиши, я только по офису в мск могу сказать что-нибудь
Mikhail
25.09.2017
08:53:18
Коллеги, а кто-нибудь натыкался на статьи по настройке кластера Кубера на высокую нагрузку? (200k+ rps )
Если с настройкой самого кластера всё более менее понятно, то со стороны сервиса, настроенного принимать - хотелось бы почитать, какой посыл и как правильно :)
Mikhail
25.09.2017
08:58:49
только такое видел https://githubengineering.com/kubernetes-at-github/
Arslanbekov
25.09.2017
09:01:39
Mikhail
25.09.2017
09:10:05
Let Eat
25.09.2017
09:14:22
сейчас там кошерная Сишечка
Kvendingoldo
25.09.2017
09:59:51
Народ, а как сделать так, чтобы gce-шный PersistentVolume был виден в Persistent Volumes дашборды кубернетеса?
Google
Роман
25.09.2017
10:27:34
Кто-нибудь сталкивался с тем, что через какое-то время безо всяких причин пропадает Endpoint glusterfs во всех нэймспейсах? Как можно найти причину такого поведения?
Let Eat
25.09.2017
10:33:27
Роман
25.09.2017
10:33:57
Let Eat
25.09.2017
10:34:00
или всю ноду выбило и всё что было на наей считается not ready
kubectl describe pod
Роман
25.09.2017
10:35:45
Проблема в том, что это замечается в момент деплоя. Пишет ContainerCreating. А describe выдаёт, что endpoints "glusterfs-cluster" not found. Смотрю ep - действительно нету...
Vitaliy
25.09.2017
12:29:12
прошу прощения, еще пару тупых вопросов. вот в инструкции про апгрейд с 1.6 на 1.7 написано удалить демонсет kube-proxy, а он как я помню рулит портами и прочим от сервисов. как это удаление скажется на работающих подах?
Kvendingoldo
25.09.2017
12:38:23
Господа, а можно ли примонтировать PersistentVolume к поду без PersistentVolumeClaim?
Let Eat
25.09.2017
12:47:15
Vitaliy
25.09.2017
12:47:35
https://kubernetes.io/docs/tasks/administer-cluster/kubeadm-upgrade-1-7/
а после этого запускать сразу upgrade чтобы оно создалось
Let Eat
25.09.2017
12:48:34
занятно, похоже daemonset переименовали или что-то такое
вобщем когда удалите, iptables правила останутся на месте, так что новые поды/сервисы работать не будут, но старые должны работать
если новый daemonset придет быстренько, ничего страшного
Nata
25.09.2017
13:34:08
#whois добрый день! Я работаю в небольшом провайдере. Есть много вопросов по первоначальной установке и настройке кубернетеса. Либо кривая документация, либо я. Интересной или полезной я буду сообществу, когда пойму, как все работает (надеюсь). На группу скинул ссылку товарищ. Пока что почитаю, что тут уже успели написать, может быть здесь уже задавали, возникающие у меня вопросы
Роман
25.09.2017
13:53:00
Я всегда в восторге от девушек-технарей)
Paul
25.09.2017
13:53:18
документация прихрамывает, это да. Очень рекомендую док от Келси Хайтауэера и его же курс на Udacity
Maksim
25.09.2017
13:59:38
Я бы не сказал, что документация прихрамывает
Она написана Разрабоами кубера для Админов кубера) Ньюбы не пройдут, только посвещённые) Посвятись и дока становится простой
Dmitry
25.09.2017
14:00:40
https://www.udemy.com/learn-devops-the-complete-kubernetes-course/
Google
Dmitry
25.09.2017
14:00:47
вот такой еще ниче так
Nata
25.09.2017
14:56:21
Сергей
25.09.2017
14:58:00
Опа,женщина
LonFas
25.09.2017
14:58:38
не спугни
Сергей
25.09.2017
14:58:54
так я одетый же
Maksim
25.09.2017
14:58:57
Сергей
25.09.2017
14:59:07
здесь еще нет
Maksim
25.09.2017
15:00:11
Никита
25.09.2017
18:31:36
подскажите пожалуйста если есть необходимость создать мультистейдж в кубе, какой уровень абстракции лучше использовать по best practice, namespaces/context/cluster/etc...?
Сергей
25.09.2017
18:33:11
а больше подробностей можно?
Никита
25.09.2017
18:34:37
пока что абстрактно, из требований скорее всего - изоляция на сетевом уровне с единым управлением всем этим делом
Сергей
25.09.2017
18:34:59
неймспейс и нетворк полици
нетворк полици - нужен сетевой плагин его поддерживающий
Никита
25.09.2017
18:35:24
weave планируется
Сергей
25.09.2017
18:35:28
типа kube-router, calico etc
да вейв тоже вроде подходит