
Dmytro
25.04.2018
22:47:32
https://github.com/fabric8io/fluent-plugin-kubernetes_metadata_filter
а то хотел поковырять filebeat на досуге (не очень доволен fluentd) но если он таких базовых вещей не умеет то стюардессу можно закапывать

Nik
25.04.2018
22:49:59

Dmytro
25.04.2018
22:50:21
ок, тогда надо поковырять

Google

Dmytro
25.04.2018
22:50:26
спасибо
кстати, раз зашла речь про тулзы и логи - есть вот такая шутка еще https://github.com/wercker/stern

Nik
25.04.2018
22:55:51

Anton
26.04.2018
00:24:47
почему один и тот же контейнер может быть то доступен, то недоступен?
$ kubectl exec dsc-b-0 -c vxlan-controller-agent date
Thu Apr 26 00:23:26 UTC 2018
$ kubectl exec dsc-b-0 -c vxlan-controller-agent date
error: unable to upgrade connection: container not found ("vxlan-controller-agent")

Sun
26.04.2018
00:59:24

Anton
26.04.2018
01:01:02
нет, running
в логах кублета на той ноде вот это:
container vxlan-controller-agent: selfLink was empty, can't make reference

Sun
26.04.2018
01:06:43
А после reference ещё что-то есть?

Anton
26.04.2018
01:16:35
А после reference ещё что-то есть?
Apr 26 01:13:57 ip-10-200-112-156 kubelet[23103]: E0426 01:13:57.999474 23103 kuberuntime_container.go:66] Can't make a ref to pod "dsc-b-0_default(f39a998d-48cc-11e8-8c7d-0a86e9c429f2)", container vxlan-controller-agent: selfLink was empty, can't make reference
Apr 26 01:13:58 ip-10-200-112-156 kubelet[23103]: I0426 01:13:57.999618 23103 qos_container_manager_linux.go:320] [ContainerManager]: Updated QoS cgroup configuration
Apr 26 01:13:59 ip-10-200-112-156 kubelet[23103]: I0426 01:13:59.993950 23103 kubelet_pods.go:1060]
Killing unwanted pod "dsc-b-0"
Apr 26 01:13:59 ip-10-200-112-156 kubelet[23103]: I0426 01:13:59.996574 23103 kuberuntime_container.go:567] Killing container "docker://e0613521076dc43580d80ceb59deb55946ba25d8869b7d38b2923c33e681d551"
with 0 second grace period

Valentin
26.04.2018
04:36:07

Anton
26.04.2018
05:19:35

Андрэ
26.04.2018
05:21:55
Товарищи, а вот на тему «держать БД вне Кубера». А как вы это дело раскатываете? Ансиблом типа?

KrivdaAllStars
26.04.2018
05:24:54
https://www.oreilly.com/ideas/how-to-run-a-custom-version-of-spark-on-hosted-kubernetes?utm_medium=email&utm_source=optin&utm_campaign=awareness&utm_content=20180425+data+nl&mkt_tok=eyJpIjoiTmpreFlqYzFZakU0WkdSaCIsInQiOiIzMEpFbXZVZ2g5Q3RGNlN1ZmRYazFFTzJtZHBxc1VMUG1wZGRrZ1RPQkMwUU92WTloUXMxV3E2SWtIem1JMnFHcFwvZDFMb2FHZ0Z4VG1TbERCc1Awd0pYd09JemNNclNPcEtvd0txMHlvUmZlYUZHT0hJVXpSYnRlMW1SY3RCcloifQ%3D%3D

Google

Valentin
26.04.2018
05:27:07
- type: log
enabled: true
paths:
- /var/log/containers/*.log
symlinks: true
нихрена не видит. Бесит уже )

Vadim
26.04.2018
06:46:31
Всем привет
Есть 3 контейнера, например, веб-приложение, его БД, сервис фоновых задач
Подскажите, как правильно стратегически развернуть такое на Kubernetes?
1. Один Pod с 3-мя контейнерами
2. Три Pods, по одному контейнеру в каждом
и какая разница в работе между этими двумя вариантами?

Anton
26.04.2018
07:09:13
Как хочешь
Если нужно доступ к одним вольюмам или делить ещё как то другие namespaces, то однозначно один под
Если бд одна для всех реплик, то ее отдельным деплойментом или стейтфулсетом
Если что то должно масштабироваться репликами или наоборот, не должно, то опять же отдельно

Андрэ
26.04.2018
07:15:22
И все таки, БД в кубер или рядом?
Чем больше читаю, тем больше не могу определиться

Andrey
26.04.2018
07:15:40

Андрэ
26.04.2018
07:15:56
И ансиблом выкатывать?

Andrey
26.04.2018
07:16:07
Да хоть чем) Чем умеете

Андрэ
26.04.2018
07:16:21
Ну да) я тоже образно

Andrey
26.04.2018
07:16:23
helm'ом например)

Андрэ
26.04.2018
07:16:35
А поделитесь плейбуком для кубера
Или я не прав?

Andrey
26.04.2018
07:17:48

Андрэ
26.04.2018
07:17:54
Ага

Andrey
26.04.2018
07:18:21
та там ж только миграции накатить. Это можно хоть на голом баше :D

Google

Андрэ
26.04.2018
07:19:35
В общем, решено. БД рядом) спасибо

Anton
26.04.2018
07:24:33

Andrey
26.04.2018
07:30:17
А в чем трабл?

Anton
26.04.2018
07:30:38
Зачем просто это

Andrey
26.04.2018
07:30:59
Ок, а какие варианты?

Anton
26.04.2018
07:32:39
Не делать два раза одно дело разными инструментами

Andrey
26.04.2018
07:34:48
Т.е. для дева тоже юзать хост инсталляцию? Это, имхо, ещё неудобней

Anton
26.04.2018
08:04:12
Все конечно зависит. Но какие аргуметны у вас не пускать бд в проде в к8с, учитывая опыт эксплуатации на тесте?
Я хз каковы ваши нагрузки и обьемы, может быть получается что целиком машину отдавать нужно и пускать в к8с лишено смысла

Banschikov
26.04.2018
08:39:06
Всем привет! Подскажите пожалуйста, правильно делать одну подсеть для подов и сервисов?

Андрэ
26.04.2018
08:39:26
А вот получается, если мы БД вне кубера храним. То и зукипер, да и кафку, наверное, тоже стоитт наружу вынести?

Valentin
26.04.2018
08:42:39

Андрэ
26.04.2018
08:42:53
ага)

Valentin
26.04.2018
08:43:20
у меня БД в кубике, и я не обламываюсь

Андрэ
26.04.2018
08:43:30
я вот все еще на распутье
то решил, что рядом надо. то вот опять сомневаюсь

Valentin
26.04.2018
08:44:12
я думаю, что рядом надо делать, когда становится понятно, что иначе никак

Anton
26.04.2018
09:43:47

Banschikov
26.04.2018
09:45:31

Nik
26.04.2018
09:48:34

Google

Valentin
26.04.2018
09:49:40
проблема именно в симлинках, потомучто логи anaconda из соседней папки норм пушатся
и /var/log/containers замаунчен, под их видит
но я уже думаю подзабить на это и пушить всё подряд, фильтровать в логстэше

Nik
26.04.2018
10:00:00
версию filebeat еще посмотреть можно

Valentin
26.04.2018
10:04:09
пробовал рандомно из 5 релиза, сам юзаю 6.2.4

Konstantin
26.04.2018
10:04:30
Кстати о kubespray. С удивлением обнаружил, что scale не работает на etcd. В связи с этим вопрос: чем скейлите etcd?

Banschikov
26.04.2018
10:19:38
Кто нибуть монгу развертывал с помощью этого дела?
https://github.com/kubernetes/charts/tree/master/stable/mongodb-replicaset

Valentin
26.04.2018
10:22:06

Sergey
26.04.2018
10:22:39

Banschikov
26.04.2018
10:25:46

Andrey
26.04.2018
11:03:09
+1. А local-storage через kubespray у вас сразу заработал? У меня сходу лишь openebs взлетел. И пример с manual, через hostpath

Banschikov
26.04.2018
11:04:58
могу кинуть свой кусок кубеспрея

Andrey
26.04.2018
11:09:10
Мы же говорим о секции local_volume_provisioner_ ?

Banschikov
26.04.2018
11:12:53

Andrey
26.04.2018
11:13:20
Так там особо настраивать то и нечего

Алексей
26.04.2018
11:38:58
Приветствую! Подскажите, пожалуйста:
У меня есть "кластер" из трёх машин
я запустил в нём приложение, оно отвечает по 80 и 443 порту, разреплицировал его на 3 ноды
Нужно открыть сервис для внешнего мира, но через nodeport для приложения не хочется этого делать.
Выделил ноду, присвоил ей метку router, хочу задеплоить туда ingress nginx, что бы он слушал 80 и 443 порты на машине и балансировал мой сервис внутри кластера.
Какую конфигурацию я должен указать при деплое контроллера?
Пробовал разные вариации, но расшарить порты на машине так и не удалось
helm чарт беру отсюда https://github.com/kubernetes/charts/tree/master/stable/nginx-ingress

Andrey
26.04.2018
11:39:44
host_network true

Алексей
26.04.2018
11:42:11

Valeriy
26.04.2018
11:46:35

Google

Алексей
26.04.2018
11:47:11
Нет, все айпи внутренние вида 192.168.88.x
dns запись указывает на внутренний айпи
Можно считать, что это и будет его external

Valeriy
26.04.2018
11:53:40
В externalIP указываешь ip ноды
У тебя получается автоматом балансировщик и прокидывание порта в поды

Yaroslav
26.04.2018
13:35:12
Привет всем.
Подскажите как порешать такую проблему :
Есть Ubunta на ней настроена прокся через cntlm - она поднята на 3128
Запускаю миникубс командой :
minikube start --vm-driver=virtualbox --memory=8192 --docker-env HTTP_PROXY=http://127.0.0.1:3128/ --docker-env HTTPS_PROXY=https://127.0.0.1:3128/ --docker-env NO_PROXY=localhost,192.168.*
И пытаюсь запустить hello-minikube - он не поднимается и в лог срется ошибка :
Error response from daemon: Get https://gcr.io/v2/: proxyconnect tcp: dial tcp 127.0.0.1:3128: getsockopt: connection refused"
На сколько я понял что он докер образ выкачать не может из за того докер проксю не видит.
Можете подсказать как эту проблему можно решить ?

Denis
26.04.2018
13:35:35
Можете подсказать...
kube-proxy отваливается с ошибкой
"Nameserver limits were exceeded, some nameservers have been omitted, the applied nameserver line is 10.226.138.1 10.226.138.2 10.226.138.4"

Konstantin
26.04.2018
13:40:04
@denuto кол-во ns снизить на хосте , как помню это проблема glibc (вроде)

Юрий
26.04.2018
13:46:29

Yaroslav
26.04.2018
13:54:34

Stanislav
26.04.2018
14:25:37
А кто как делает выделенные сети для отдельных микросервисов? Что-нибудь кроме неймспейсов и сетевых политик для них осмысленное есть?

Ilya
26.04.2018
15:47:33
А кто нить знает как ldap прикрутить к k8s dashboard?

Dmitryi
26.04.2018
15:48:35
Всем привет. Ребят подскажите сеть которая указываеться в apiserver в параметре —service-cluster-ip-range может быть внешней сетью которая роутиться. К примеру я в этот параметр укажу айпи своей внутренней сети в которой настроены ноды? Будут ли с этим какие-то проблемы ?

Arslanbekov
26.04.2018
15:53:41

zigmund
26.04.2018
16:45:16
А кто нить знает как ldap прикрутить к k8s dashboard?
Я поставил nginx + ldap перед дашбордом и выставил наружу nginx, а сам дашборд закрыл. Хреново то, что все, кто залогинился, выполняют действия под одним SA, но хоть как-то. Да и доступ имеет ограниченный круг лиц.

Ильдар
26.04.2018
16:50:54

zigmund
26.04.2018
16:51:11