@kubernetes_ru

Страница 70 из 958
Artur
04.10.2016
14:05:16
у меня в messages на centos пусто

Bro
04.10.2016
14:05:33
а где вы разворачиваете кластер? на своем железе или в облаке?

Artur
04.10.2016
14:06:47
я пока в вагранте kubeadm пробую

Vadim
04.10.2016
14:07:05
а как-то откатить всё назад можно, чтобы снова запустить?
я контейнер сносил и заново создавал. но не добился пока запуска. судя по всему там lxc сильно ограничивает его чем-то. по идее на vagrant там не должно быть проблем этих, т.к. это цельная виртуальная машина

Google
Bro
04.10.2016
14:07:25
в вагранте?

я читал что сейчас рекомендованный метод minikube

Bro
04.10.2016
14:09:25
на амазоне минут за 10 кластер поднимался.

Dmitry
04.10.2016
14:15:15
я на DO поднял.. но думаю о переезде в линоду

Artur
04.10.2016
14:16:13
а вот эти оговорки о том, что kubeadm не для продакшена - что может пойти не так, если у меня таки кластер развренулся?

указал конкретный IP и всё стартовало за пару минут

и с kubeadm просто так не собрать HA с несколькими мастерами и HA etcd как я вижу

Bro
04.10.2016
14:37:36
Потом если что воркер ноду новую добавить кластер просто?

Artur
04.10.2016
14:40:48
ну мне не воркер ноду надо, а 3 мастера, на которых можно таски потом запустить :)

Bro
04.10.2016
14:45:34
там 2 типа

контроллер нода и воркер ноды

Google
Artur
04.10.2016
14:49:32
я так понимаю, я контроллер ноде могу сказать - запускай сервисы на контроллер нодах тоже

Bro
04.10.2016
14:50:02
я хз

Artur
04.10.2016
15:12:21
ну и на закуску, weave по инструкции не стартует. Ладно, туториалы хорошо, надо разбираться как это работает и куда смотреть :)

Bro
04.10.2016
15:28:05
у меня graphena почему-то не видит данные в influxdb

Alex Milushev
04.10.2016
15:35:53
у меня graphena почему-то не видит данные в influxdb
> graphena звучит как заболевание

Bro
04.10.2016
15:38:28
grafena

Dmitry
04.10.2016
15:38:56
?

Bro
04.10.2016
15:42:38
бля grafana

http://grafana.org

Fike
04.10.2016
16:42:53
Аграфена

Zon
04.10.2016
20:35:00
это если сервера... если проект деплоится через CI то она применяет деплоймент и коммитит изменения (версию образа изменившегося обновляет в файле)
Есть стейтфул контейнеры, хелперы и прочее, их не закинешь в репу к аппу. Видимо нужно будет просто хранить в другой репе

Artur
04.10.2016
21:24:03
расскажите про сетку в k8s, пожалуйста. у нас приложение упиралось в docker-proxy и работало хорошо только с —net=host. В случае с k8s - что по производительности стоит брать? Я так понимаю, calico/openvswitch - ок?

Vadim
05.10.2016
06:51:43
расскажите про сетку в k8s, пожалуйста. у нас приложение упиралось в docker-proxy и работало хорошо только с —net=host. В случае с k8s - что по производительности стоит брать? Я так понимаю, calico/openvswitch - ок?
если не секрет, какие объемы данных (количество соединений/трафик), чтобы упереться в docker-proxy? У нас на один сервер где-то 1500-2000 активных websocket соединений по 60-90 на один контейнер. Пока не упирались.

Andrey
05.10.2016
07:58:32
слушайте, где-то в каких-то конфигах видел то ли в анотации, то ли где-то еще возможность запускать команды при запуске контейнера в нем... не обратил внимания а щас вот потребовалось и не могу вспомнить

ну то есть не через "command: my-supercool-script.sh" а в описании контейнера )

kay
05.10.2016
08:01:03
оно? http://kubernetes.io/docs/user-guide/production-pods/#handling-initialization

Andrey
05.10.2016
08:01:15
да, похоже, спасибо

Alexander
05.10.2016
08:14:01
а есть ли что-то подобное для deployment ?

kay
05.10.2016
08:15:55
так это в deployment можно использовать

deployment это же контейнер для pod

Google
kay
05.10.2016
08:16:31
все что можно указать в pod, то можно указать и в под внутри deployment

Andrey
05.10.2016
08:22:43
а, походу не подходит - там предлагают запустить контейнеры другие ДО контейнера пода, а не выполнить команды в уже запущеном контейнере пода

Alexander
05.10.2016
08:58:00
т.е. тебе нужно после инициализации пода и контейнера запустить?

Andrey
05.10.2016
09:06:19
угумс, одну команду выполнить (в базовом образе не установлен нужный мне модуль)... решил созданием нового образа но как по мне это избыточно... в общем ладно, проехали, сори что отвлекаю )

Andrey
05.10.2016
09:08:24
sh-скрипт который через configmap прогружается и запускается на entrypoint как вариант - я так с эластиком делал

но костыли )

Artur
05.10.2016
09:12:49
я примерно прикидываю наши нагрузки и то, как мы будем скейлиться

Andrey
05.10.2016
09:28:56
оффтоп: запустил kube-lego, наконец-то получил бенефит от создания кубернетеса а не просто "ну да, ну да... хз это можно было и в XYZ сделать без проблем"

Vadim
05.10.2016
09:50:30
выяснил, жрало цпу и текла память у docker-proxy
интересно, пока не сталкивались. есть еще один хост, там nginx + node.js. В пик обрабатывает около 6000 запросов в секунду. Тоже через docker-proxy.

Artur
05.10.2016
09:50:45
10к коннектов при тестах было

но трафика не очень много

Vadim
05.10.2016
09:53:29
а лимит net.nf_conntrack_max поднят?

Artur
05.10.2016
09:57:15
net.nf_conntrack_max = 262144 на хосте

Vadim
05.10.2016
10:01:52
есть большая вероятность, что в него упор. когда у нас до 5000 запросов в секунду на nginx приходило уперлись в лимит установленный на 1048576

в это время сильно вырастает нагрузка на cpu и в syslog падает множество сообщений о дропнутых пакетах

Artur
05.10.2016
10:24:22
ага, спасибо, стоит посмотреть

Andrey
05.10.2016
10:41:39
блин, во всех мануалах "как переключи логи из google cloud logging в elasticsearch" написано: "создайте новый кластер запустив setup.sh с флагом KUBE_LOGGING_DESTINATION=elasticsearch" а че делать если уже есть существующий кластер :( чем-то напоминает "если к вам неожиданно пришли друзья и вы не успели ничего приготовить - нестрашно, пошлите слугу на рынок..."

Google
kay
05.10.2016
10:42:13
@vkfont https://github.com/kayrus/elk-kubernetes

ничего переключать не надо

как только Kibana заработает, тогда выключай GCL

Andrey
05.10.2016
10:43:09
не, мне надо чтобы stdout контейнеров (fluentd) посылался в эластик автоматом

кластер из эластика и гуя кибаны у меня итак есть

kay
05.10.2016
10:43:22
ну так оно и работает

Bro
05.10.2016
10:43:24
а чем логи с контейнеров собираете?

kay
05.10.2016
10:43:41
просто заигнорь поднятие EK стэка

Admin
ERROR: S client not available

kay
05.10.2016
10:43:49
и оставь fleunt

https://github.com/kayrus/elk-kubernetes/blob/master/es-fluentd-ds.yaml

само собой контейнер сам можешь собрать ,а не использовать мой

Dockerfile здесь https://github.com/kayrus/elk-kubernetes/tree/master/docker/fluentd

Andrey
05.10.2016
10:44:48
попробую, спс

kay
05.10.2016
10:45:28
не зря время на логи тратил.

Andrey
05.10.2016
10:47:10
то есть по факту надо просто fluentd свой поднять который на эластик смотрит и прибить старый?

kay
05.10.2016
10:47:17
да

Andrey
05.10.2016
10:47:37
че-то как-то легко... подозрительно :) (шутка)

kay
05.10.2016
10:48:16
ну я значительное время потратил на то, чтобы правильный fluentd конфиг состряпать. он отвечает моим требованиям, но зато содержит примеры, которые никому не мешают

Andrey
05.10.2016
10:49:15
а где старый fluentd искать?

Google
Andrey
05.10.2016
10:49:17
$ kubectl --namespace=kube-system get pods NAME READY STATUS RESTARTS AGE default-http-backend-40jhh 1/1 Running 0 2d heapster-v1.2.0-2328783301-1zj74 2/2 Running 0 2d kube-dns-v19-e0uka 3/3 Running 0 2d kube-dns-v19-hc0fc 3/3 Running 0 2d kube-lego-3129421299-018gk 1/1 Running 0 2d kube-proxy-gke-edissons-default-pool-abd1b1de-5pf4 1/1 Running 0 2d kube-proxy-gke-edissons-default-pool-abd1b1de-aefq 1/1 Running 0 2d kube-proxy-gke-edissons-default-pool-abd1b1de-e73x 1/1 Running 1 2d kube-proxy-gke-edissons-default-pool-abd1b1de-lho2 1/1 Running 0 2d kube-proxy-gke-edissons-default-pool-abd1b1de-tae0 1/1 Running 0 2d kubernetes-dashboard-v1.4.0-ja905 1/1 Running 1 2d nginx-ingress-controller-gyjao 1/1 Running 0 2d

а как контейнерам сказать чтобы они драйвер fluentd юзали?

kay
05.10.2016
10:50:10
у меня docker по дефолту

пишет файлы в лог на ФС

fluentd эти логи подхватывает

ничего перезапускать и переконфигурировать не надо

> а где старый fluentd искать? а он есть?

Andrey
05.10.2016
10:51:07
ну хз я думал через него в google logging посылает

kay
05.10.2016
10:51:23
к сожалению, без понятия как google logging работает

Andrey
05.10.2016
10:51:30
ладно, не гружу, пойду поковыряю, спасибо за репу )

kay
05.10.2016
10:52:48
Я сейчас пилю prometheus+grafana

кстати не в курсе нужен ли heapster с cadvisor в этом случае

Alexander
05.10.2016
11:07:55
Покажешь потом, мне интересен prometheus.

yolkov
05.10.2016
13:32:40
привет, а можно как то ограничить чтобы на ноду не устанавливались поды, кроме подов с определенными лайблами

т.е. сделать ограниченные ноды, только для определенных задач?

с помощью Node affinity?

kay
05.10.2016
13:35:13
только в 1.4 http://kubernetes.io/docs/user-guide/node-selection/#alpha-features-affinity-and-anti-affinity

yolkov
05.10.2016
13:36:09
да, у меня 1.4 и есть, спасибо, поизучаю

Ivan
05.10.2016
13:37:33
т.е. сделать ограниченные ноды, только для определенных задач?
вообще правильнее для подобных целей использовать taints/tolerations https://github.com/kubernetes/kubernetes/blob/master/docs/design/taint-toleration-dedicated.md

Страница 70 из 958