@kubernetes_ru

Страница 535 из 958
Dmytro
25.04.2018
22:47:32
https://github.com/fabric8io/fluent-plugin-kubernetes_metadata_filter

а то хотел поковырять filebeat на досуге (не очень доволен fluentd) но если он таких базовых вещей не умеет то стюардессу можно закапывать

Dmytro
25.04.2018
22:50:21
ок, тогда надо поковырять

Google
Dmytro
25.04.2018
22:50:26
спасибо

кстати, раз зашла речь про тулзы и логи - есть вот такая шутка еще https://github.com/wercker/stern

Anton
26.04.2018
00:24:47
почему один и тот же контейнер может быть то доступен, то недоступен? $ kubectl exec dsc-b-0 -c vxlan-controller-agent date Thu Apr 26 00:23:26 UTC 2018 $ kubectl exec dsc-b-0 -c vxlan-controller-agent date error: unable to upgrade connection: container not found ("vxlan-controller-agent")

Anton
26.04.2018
01:01:02
нет, running

в логах кублета на той ноде вот это: container vxlan-controller-agent: selfLink was empty, can't make reference

Sun
26.04.2018
01:06:43
А после reference ещё что-то есть?

Anton
26.04.2018
01:16:35
А после reference ещё что-то есть?
Apr 26 01:13:57 ip-10-200-112-156 kubelet[23103]: E0426 01:13:57.999474 23103 kuberuntime_container.go:66] Can't make a ref to pod "dsc-b-0_default(f39a998d-48cc-11e8-8c7d-0a86e9c429f2)", container vxlan-controller-agent: selfLink was empty, can't make reference Apr 26 01:13:58 ip-10-200-112-156 kubelet[23103]: I0426 01:13:57.999618 23103 qos_container_manager_linux.go:320] [ContainerManager]: Updated QoS cgroup configuration Apr 26 01:13:59 ip-10-200-112-156 kubelet[23103]: I0426 01:13:59.993950 23103 kubelet_pods.go:1060] Killing unwanted pod "dsc-b-0" Apr 26 01:13:59 ip-10-200-112-156 kubelet[23103]: I0426 01:13:59.996574 23103 kuberuntime_container.go:567] Killing container "docker://e0613521076dc43580d80ceb59deb55946ba25d8869b7d38b2923c33e681d551" with 0 second grace period

Андрэ
26.04.2018
05:21:55
Товарищи, а вот на тему «держать БД вне Кубера». А как вы это дело раскатываете? Ансиблом типа?

KrivdaAllStars
26.04.2018
05:24:54
https://www.oreilly.com/ideas/how-to-run-a-custom-version-of-spark-on-hosted-kubernetes?utm_medium=email&utm_source=optin&utm_campaign=awareness&utm_content=20180425+data+nl&mkt_tok=eyJpIjoiTmpreFlqYzFZakU0WkdSaCIsInQiOiIzMEpFbXZVZ2g5Q3RGNlN1ZmRYazFFTzJtZHBxc1VMUG1wZGRrZ1RPQkMwUU92WTloUXMxV3E2SWtIem1JMnFHcFwvZDFMb2FHZ0Z4VG1TbERCc1Awd0pYd09JemNNclNPcEtvd0txMHlvUmZlYUZHT0hJVXpSYnRlMW1SY3RCcloifQ%3D%3D

Google
Valentin
26.04.2018
05:27:07
- type: log enabled: true paths: - /var/log/containers/*.log symlinks: true нихрена не видит. Бесит уже )

Vadim
26.04.2018
06:46:31
Всем привет Есть 3 контейнера, например, веб-приложение, его БД, сервис фоновых задач Подскажите, как правильно стратегически развернуть такое на Kubernetes? 1. Один Pod с 3-мя контейнерами 2. Три Pods, по одному контейнеру в каждом и какая разница в работе между этими двумя вариантами?

Anton
26.04.2018
07:09:13
Как хочешь

Если нужно доступ к одним вольюмам или делить ещё как то другие namespaces, то однозначно один под

Если бд одна для всех реплик, то ее отдельным деплойментом или стейтфулсетом

Если что то должно масштабироваться репликами или наоборот, не должно, то опять же отдельно

Андрэ
26.04.2018
07:15:22
И все таки, БД в кубер или рядом?

Чем больше читаю, тем больше не могу определиться

Andrey
26.04.2018
07:15:40
И все таки, БД в кубер или рядом?
дев в кубе, прод рядом

Андрэ
26.04.2018
07:15:56
И ансиблом выкатывать?

Andrey
26.04.2018
07:16:07
Да хоть чем) Чем умеете

Андрэ
26.04.2018
07:16:21
Ну да) я тоже образно

Andrey
26.04.2018
07:16:23
helm'ом например)

Андрэ
26.04.2018
07:16:35
А поделитесь плейбуком для кубера

helm'ом например)
Ну им же рядом не положишь?

Или я не прав?

Andrey
26.04.2018
07:17:48
Ну им же рядом не положишь?
имеешь в виду деплой базы?

Андрэ
26.04.2018
07:17:54
Ага

Andrey
26.04.2018
07:18:21
та там ж только миграции накатить. Это можно хоть на голом баше :D

Google
Андрэ
26.04.2018
07:19:35
В общем, решено. БД рядом) спасибо

Anton
26.04.2018
07:24:33
дев в кубе, прод рядом
Вот это вообще больше вопросов только создаёт. И суппортить оба подхода, зачем?

Andrey
26.04.2018
07:30:17
А в чем трабл?

Anton
26.04.2018
07:30:38
Зачем просто это

Andrey
26.04.2018
07:30:59
Ок, а какие варианты?

Anton
26.04.2018
07:32:39
Не делать два раза одно дело разными инструментами

Andrey
26.04.2018
07:34:48
Т.е. для дева тоже юзать хост инсталляцию? Это, имхо, ещё неудобней

Anton
26.04.2018
08:04:12
Все конечно зависит. Но какие аргуметны у вас не пускать бд в проде в к8с, учитывая опыт эксплуатации на тесте?

Я хз каковы ваши нагрузки и обьемы, может быть получается что целиком машину отдавать нужно и пускать в к8с лишено смысла

Banschikov
26.04.2018
08:39:06
Всем привет! Подскажите пожалуйста, правильно делать одну подсеть для подов и сервисов?

Андрэ
26.04.2018
08:39:26
А вот получается, если мы БД вне кубера храним. То и зукипер, да и кафку, наверное, тоже стоитт наружу вынести?

Андрэ
26.04.2018
08:42:53
ага)

Valentin
26.04.2018
08:43:20
у меня БД в кубике, и я не обламываюсь

Андрэ
26.04.2018
08:43:30
я вот все еще на распутье

то решил, что рядом надо. то вот опять сомневаюсь

Valentin
26.04.2018
08:44:12
я думаю, что рядом надо делать, когда становится понятно, что иначе никак

Anton
26.04.2018
09:43:47
Всем привет! Подскажите пожалуйста, правильно делать одну подсеть для подов и сервисов?
вроде так по дефолту, у service свое пространство, чтобы не пересекаться с подами

Banschikov
26.04.2018
09:45:31
вроде так по дефолту, у service свое пространство, чтобы не пересекаться с подами
У меня была проблема после инсталяции kuberspray что при дефолтной конфигурации поды не могли взаимодействовать друг с другом через сервисы. Сделал одну подсеть и все заработал?

Nik
26.04.2018
09:48:34
- type: log enabled: true paths: - /var/log/containers/*.log symlinks: true нихрена не видит. Бесит уже )
Очень странно, у меня с хоста все ок, нужно из пода посмотреть.

Google
Valentin
26.04.2018
09:49:40
проблема именно в симлинках, потомучто логи anaconda из соседней папки норм пушатся

и /var/log/containers замаунчен, под их видит

но я уже думаю подзабить на это и пушить всё подряд, фильтровать в логстэше

Nik
26.04.2018
10:00:00
версию filebeat еще посмотреть можно

Valentin
26.04.2018
10:04:09
пробовал рандомно из 5 релиза, сам юзаю 6.2.4

Konstantin
26.04.2018
10:04:30
Кстати о kubespray. С удивлением обнаружил, что scale не работает на etcd. В связи с этим вопрос: чем скейлите etcd?

Banschikov
26.04.2018
10:19:38
Кто нибуть монгу развертывал с помощью этого дела? https://github.com/kubernetes/charts/tree/master/stable/mongodb-replicaset

Valentin
26.04.2018
10:22:06
Кто нибуть монгу развертывал с помощью этого дела? https://github.com/kubernetes/charts/tree/master/stable/mongodb-replicaset
что-то у тебя домашнее задание по-моему немного перевалило через край ))

Banschikov
26.04.2018
10:25:46
что-то у тебя домашнее задание по-моему немного перевалило через край ))
Да мы готовимся к переезду на кубернетес. Вот сижу пробою развертывать используемые нами сервисы внутри куба)

Andrey
26.04.2018
11:03:09
+1. А local-storage через kubespray у вас сразу заработал? У меня сходу лишь openebs взлетел. И пример с manual, через hostpath

Banschikov
26.04.2018
11:04:58
могу кинуть свой кусок кубеспрея

Andrey
26.04.2018
11:09:10
Мы же говорим о секции local_volume_provisioner_ ?

Andrey
26.04.2018
11:13:20
Так там особо настраивать то и нечего

Алексей
26.04.2018
11:38:58
Приветствую! Подскажите, пожалуйста: У меня есть "кластер" из трёх машин я запустил в нём приложение, оно отвечает по 80 и 443 порту, разреплицировал его на 3 ноды Нужно открыть сервис для внешнего мира, но через nodeport для приложения не хочется этого делать. Выделил ноду, присвоил ей метку router, хочу задеплоить туда ingress nginx, что бы он слушал 80 и 443 порты на машине и балансировал мой сервис внутри кластера. Какую конфигурацию я должен указать при деплое контроллера? Пробовал разные вариации, но расшарить порты на машине так и не удалось helm чарт беру отсюда https://github.com/kubernetes/charts/tree/master/stable/nginx-ingress

Andrey
26.04.2018
11:39:44
host_network true

Алексей
26.04.2018
11:42:11
host_network true
Ага, похоже на правду. Спасибо?

Google
Алексей
26.04.2018
11:47:11
Нет, все айпи внутренние вида 192.168.88.x dns запись указывает на внутренний айпи Можно считать, что это и будет его external

Valeriy
26.04.2018
11:53:40
В externalIP указываешь ip ноды

У тебя получается автоматом балансировщик и прокидывание порта в поды

Yaroslav
26.04.2018
13:35:12
Привет всем. Подскажите как порешать такую проблему : Есть Ubunta на ней настроена прокся через cntlm - она поднята на 3128 Запускаю миникубс командой : minikube start --vm-driver=virtualbox --memory=8192 --docker-env HTTP_PROXY=http://127.0.0.1:3128/ --docker-env HTTPS_PROXY=https://127.0.0.1:3128/ --docker-env NO_PROXY=localhost,192.168.* И пытаюсь запустить hello-minikube - он не поднимается и в лог срется ошибка : Error response from daemon: Get https://gcr.io/v2/: proxyconnect tcp: dial tcp 127.0.0.1:3128: getsockopt: connection refused" На сколько я понял что он докер образ выкачать не может из за того докер проксю не видит. Можете подсказать как эту проблему можно решить ?

Denis
26.04.2018
13:35:35
Можете подсказать... kube-proxy отваливается с ошибкой "Nameserver limits were exceeded, some nameservers have been omitted, the applied nameserver line is 10.226.138.1 10.226.138.2 10.226.138.4"

Konstantin
26.04.2018
13:40:04
@denuto кол-во ns снизить на хосте , как помню это проблема glibc (вроде)

Stanislav
26.04.2018
14:25:37
А кто как делает выделенные сети для отдельных микросервисов? Что-нибудь кроме неймспейсов и сетевых политик для них осмысленное есть?

Ilya
26.04.2018
15:47:33
А кто нить знает как ldap прикрутить к k8s dashboard?

Dmitryi
26.04.2018
15:48:35
Всем привет. Ребят подскажите сеть которая указываеться в apiserver в параметре —service-cluster-ip-range может быть внешней сетью которая роутиться. К примеру я в этот параметр укажу айпи своей внутренней сети в которой настроены ноды? Будут ли с этим какие-то проблемы ?

Arslanbekov
26.04.2018
15:53:41
zigmund
26.04.2018
16:45:16
А кто нить знает как ldap прикрутить к k8s dashboard?
Я поставил nginx + ldap перед дашбордом и выставил наружу nginx, а сам дашборд закрыл. Хреново то, что все, кто залогинился, выполняют действия под одним SA, но хоть как-то. Да и доступ имеет ограниченный круг лиц.

zigmund
26.04.2018
16:51:11

Страница 535 из 958