
Maksim
28.08.2017
13:11:56

Paul
28.08.2017
13:22:28

kvaps
28.08.2017
13:26:14

Andrey
28.08.2017
13:28:18

Google

Andrey
28.08.2017
13:29:15
Мастер ноды дисковые, если что

Maksim
28.08.2017
13:29:36

kvaps
28.08.2017
13:29:38
Пробовал через kubeadm, после второго раза удаления/добавления ноды лагает
так что лучше не через него)
хотя может пофиксили уже

Denis
28.08.2017
13:30:33
А кто нибудь дружил fluentd и логи где есть сообщения больше 16K, которые режутся докером?

Andrey
28.08.2017
13:32:05
Да меня в этой задаче и fleet устроил бы полностью, пока я не увидел что он deprecated. Ибо куб тут, как из пушки по воробьям

Vitaliy
28.08.2017
15:39:06
root будет на tmpfs, готовьте память под докер образы
У нас некоторые ноды так работают, но мы постепенно втыкаем диски, т.к. сложно без дисков бороться с oom killer
У нас root везде на tmpfs, а все данные хранятся в /mnt. Во всем софте на хосте настроено хранение данных там или через bind. Удовольствие с coreos стоит 266mb памяти

Andrey
29.08.2017
07:07:49
http://blog.kubernetes.io/2016/01/simple-leader-election-with-Kubernetes.html?m=1 интересное решение имплементации выбора мастера через сайдкар на основе эксклюзивного занятия ресурса кубера... а кто нибудь более профессиональное и поддерживаемое решение встречал? Хочу попробовать поюзать

Denis
29.08.2017
08:16:54

Andrey
29.08.2017
08:17:20
я че-то не нашел репозитория с кодом %)

Google

Denis
29.08.2017
08:18:39
я точно находил
щас
https://github.com/kubernetes/contrib/tree/master/election
https://github.com/kubernetes/contrib/blob/master/election/lib/election.go
просто использует Go API для куба
Повторю вопрос, может кто сталкивался
А кто нибудь дружил fluentd и логи где есть сообщения больше 16K, которые режутся докером?

Andrey
29.08.2017
08:25:11

Let Eat
29.08.2017
09:44:48

Denis
29.08.2017
09:52:22
Это никак с kubectl не связано
Это просто sidecar приложение

Let Eat
29.08.2017
09:54:31
они втянули код leader eleaction в client-go, я надеялся что дадут к нему доступ из kubectl

Роман
29.08.2017
11:11:54
nginx ingress 0.8.3 - указываю ssl-dh-param в виде base64, но почему-то он не реагирует на него. Не релоадится и не подхватываются настройки из конфигмап. Что я делаю не так?

Paul
29.08.2017
11:19:41
коллеги, а существует какой-нибудь roadmap на куб 2.0? Обладает кто-то секретным знанием?

Сергей
29.08.2017
11:21:04
я знаю человека который знает)

Paul
29.08.2017
11:21:33
давайте позовем его сюда и спросим? :)

Сергей
29.08.2017
11:23:12
я уже ему написал
Ihor is a Program Manager at Mirantis, focused on the Kubernetes-related efforts at open source community. He acts as a Product Manager at Kubernetes community, leading Product Management Special Interest Group with the goals of growing Kubernetes as a #1 open source container orchestration platform.
короче если ответит - то гуд
он как раз за фичи там отвечает

Google

Igor
29.08.2017
14:35:12
Дорогие коллеги!
Интересна ли будет реализация шаблона сервиса на Go, который будет соответствовать требованиям Kubernetes?
Основные возможности:
- Реализация health checks
- Конфигурация через переменные окружения
- Интерфейс для логирования
- Обработка системных сигналов для изящного закрытия сервиса или перехода на обслуживание
- простейший CI/CD через команды make
- Helm charts для релиза сервиса
- Поддержка SSL сертификатов для клиента
- настроенный менеджер пакетов dep
- Автоматизированное версионирование
Подробнее здесь https://github.com/takama/k8sapp

Dmitry
29.08.2017
14:38:09
Вполне! Но на счет нужности ssl я бы поспорил. Все ж внутри клястера гонять ssl мне кажется лишнее.. это задача ингрессов
хотя я могу и заблуждаться

Igor
29.08.2017
14:39:17
Есть одна штука в Go клиенте, если надо сходить на https куда-либо, то без корневого сертификата никак
обычно в Alpine image ставим сертификат, но когда надо FROM scratch - не всё очевидно
Возможно, что многие даже не замечают, что нужен сертификат когда используют Go клиент с обращениями по https. Так как запускают приложение из OS где уже установлены сертификаты в /etc/ssl/certs/

No1
29.08.2017
14:44:05
Или сами генерируют на старте)

Igor
29.08.2017
14:48:10

No1
29.08.2017
14:49:10
Видимо не мой кейс)

Ivan
29.08.2017
14:49:49

Igor
29.08.2017
14:51:25
Чтобы куда-то ходить браузеру или Go клиенту по https надо удостоверяться, что у того места куда ходишь лежит валидный сертификат, для этого надо под рукой иметь набор корневых сертификатов основных провайдеров, которые их выдают.

No1
29.08.2017
14:56:07
Ну ваш шаблон можно и не только под go использовать:)

Ivan
29.08.2017
14:56:34
go-get-нул генератор, запустил, поотвечал Y/N и получил некий скелет сервиса?

Igor
29.08.2017
14:57:03

No1
29.08.2017
14:57:48
Спасибо вам за реализацию и то, что это в опенсорс отдали:)

Igor
29.08.2017
14:57:50

No1
29.08.2017
15:00:50
сообщество подхватит:) вещь нужная

Igor
29.08.2017
15:03:14
сообщество подхватит:) вещь нужная
Спасибо! Да, еще цель совместными знаниями сделать наиболее оптимальный вариант. Первый образец будет наш, потом можно будет контрибьютить.

Google

Ivan
29.08.2017
15:28:52
Можно ещё Dappfile добавить ;]

Igor
29.08.2017
15:30:59
Jenkinsfile тоже можно. Мне кажется проект надо поделить на два этапа. Добавить сначала то, без чего нельзя жить и сделать возможность добавлять всё остальное опционально.

Ivan
29.08.2017
15:32:05
А вот про сигналы кстати. Нужно на SIGTERM обязательно реагировать? Это наверняка где-то в доке куба есть?

Igor
29.08.2017
15:35:36
Если куб хочет закрыть приложение, он его закроет, послав сначала сигнал SIGTERM, потом SIGKILL, если нет реакции. А вот сервису надо успеть корректно закрыть все соединения и прерванные операции.
1. User sends command to delete Pod, with default grace period (30s)
3. Pod shows up as “Terminating” when listed in client commands
6. The processes in the Pod are sent the TERM signal.
7. (simultaneous with 3), Pod is removed from endpoints list for service, and are no longer considered part of the set of running pods for replication controllers. Pods that shutdown slowly can continue to serve traffic as load balancers (like the service proxy) remove them from their rotations.
spec.terminationGracePeriodSeconds
если надо побольше времени дать после SIGTERM
или поменьше ?

Admin
ERROR: S client not available

Igor
29.08.2017
15:43:31
https://kubernetes.io/docs/concepts/workloads/pods/pod/#termination-of-pods

vladget
29.08.2017
17:58:27
не могу запулить имейдж influx с heapster....
подскажите плиз как побороть
Failed to pull image "gcr.io/google_containers/heapster-influxdb-amd64:v1.3.3": rpc error: code = 2 desc = Error: Status 405 trying to pull repository google_containers/heapster-influxdb-amd64: "v1 Registry API is disabled. If you are not explicitly using the v1 Registry API, it is possible your v2 image could not be found. Verify that your image is available, or retry with dockerd --disable-legacy-registry. See https://cloud.google.com/container-registry/docs/support/deprecation-notices"

Andrew
29.08.2017
18:05:43
тег поменяй на 1.1.1
они 1.3.3 выпилили

vladget
29.08.2017
18:10:16
таки да, спасибо!
теперь тоже с grafana
image: gcr.io/google_containers/heapster-grafana-amd64:v4.4.3
взять может latest?

Andrew
29.08.2017
18:12:07
перейди по ссылке в твоем сообщении увидишь какие доступны ;)

Google

Andrew
29.08.2017
18:12:52
gcr.io/google_containers/heapster-grafana-amd64:v4.4.3

vladget
29.08.2017
18:14:31
такой и стоит

Andrew
29.08.2017
18:14:46
по этой ссылке перейди)

vladget
29.08.2017
18:15:04
понял ))
все
Спасибо!

Alisa
30.08.2017
06:22:44
а кто-то уже пробовал k8s на dc/os в проде?

No1
30.08.2017
06:26:19
Coreos?

Alisa
30.08.2017
06:30:31
я про
https://dcos.io/
?

Igor
30.08.2017
06:40:58
А на CoreOS кто-нибудь Mesos ставил? ?

No1
30.08.2017
06:41:17
?
Я не использовал DC/os, но coreos хотелось бы очень:)
Если она стабильна с кубернетесем)

Igor
30.08.2017
06:43:12
я тоже не использовал dc/os, но мне кажется в ней ориентир на Mesos

Alisa
30.08.2017
06:44:56
всё так
я наверное что-то не так гуглю:
k8s bare-metal research:
https://github.com/kubernetes/contrib/tree/master/keepalived-vip
https://github.com/kubernetes/contrib/tree/master/service-loadbalancer
https://github.com/kubernetes/ingress/tree/master/controllers/nginx
http://stytex.de/blog/2017/01/25/deploy-kubernetes-to-bare-metal-with-nginx/
https://capgemini.github.io/kubernetes/kube-traefik/
поэтому попрошу вас помочь мне ответить на вопрос:
как мне получить доступ к задеплоенному через kubespray на bare-metal кластеру извне? (через kubectl)
я подозреваю что тут где-то замешан nginx на машине и port-forwarding на docker контейнеры(какие?), но совсем уже потерялся, наставьте на путь верный, пожалуйста :c

Сергей
30.08.2017
07:29:32
ну если Вы имеете ввиду доступ на сервис задеплоенный - то минимальный вариант NodePort
плюс варианты со всякими там инжест контроллерами

kvaps
30.08.2017
07:30:27
А кто-нибудь знает, можно ли flannel заставить гонять трафик через другой интерфейс?

Alisa
30.08.2017
07:33:33