
Andrey
18.09.2018
08:44:43
смотрите логи kubelet

S
18.09.2018
08:45:27

Артем
18.09.2018
08:50:24

Михаил
18.09.2018
09:07:52

Google

Maxim
18.09.2018
09:18:17

Andre
18.09.2018
09:29:50
наверное, это очень нубский вопрос

Vladimir
18.09.2018
09:30:57
Iops не хватит

Alexey
18.09.2018
09:31:11
iops хватает, уже обсуждали.
production базы проще админить постаринке + небольшая вероятность бага в docker, которая может все убить.
dev/staging базы без проблем крутятся в кубере

Andre
18.09.2018
09:32:16
как же давно я это делал в последний раз

Alexey
18.09.2018
09:32:33
я не знаю более менее нормального способа раскатать кластер pg например. Да и не нужно его сильно настраивать, чаще всего это master и реплика на чтение, к примеру. Гемора там как обычно + заморочки куба.
А толку от production базы в кубере 0. Только те самые заморочки. И ещё раз внимание, это только для PROD. Для staging/dev раскатывают базу на минималках и норм, это максимум для пары человек.

vlad
18.09.2018
09:36:33
1) на отдельных машинах вне k8s-кластера
2) на конкретных машинах с ssd в k8s-кластере
3) на машинах в k8s-кластере на external volumes

Google

Vadim
18.09.2018
09:38:14

Alexey
18.09.2018
09:40:40

M
18.09.2018
10:07:23
ребят не подскажите в helm в некоторых чартах есть файл value-production.yaml он какую роль играет относительно value.yaml?

Anton
18.09.2018
10:07:43
можешь его применять через -f

DASTAN
18.09.2018
11:04:18
приветствую, при установке Helm Tiller в разделе Custom Kubernetes Cluster Integration выходит ошибка Something went wrong while installing Helm Tiller
Kubernetes error.
я последовал по примеру этого человека https://stackoverflow.com/questions/50384412/how-to-integrate-kubernetes-with-gitlab
можете подсказать как дальше поступить, логи может прочитать или я криво настраиваю?

Valera
18.09.2018
11:11:27
Всем привет. Какая рекомендованная практика разнесения окружений (dev, staging & etc)? По кластерам или по namespace'ам? На GKE (т.е. в плане ресурсов на поддержку мастеров мне всё равно). Сейчас разнесено по кластерам, в том числе, чтобы гарантировать изолированность по ресурсам и физическом разделении окружений по безопасности (на разных выделенных нодах), но много где встречаю примеры разделения по namespace'ам, отсюда возник вопрос. Например базовая дока по rbac: https://github.com/GoogleCloudPlatform/gke-rbac-demo

Artem
18.09.2018
11:13:05

Valera
18.09.2018
11:21:57

Artem
18.09.2018
11:26:13

Alexey
18.09.2018
11:33:33
И вы готовы пускать эти решения в прод, не боясь бессонных ночей? Или это просто нагугленные решения?
Бери любое, спи спокойно?

Sergey
18.09.2018
11:34:12
столон то чем с бессонницей связан

Alexey
18.09.2018
11:34:37
Я не использовал эти решения, поэтому спрашиваю.

Andor
18.09.2018
11:36:19
у нас патрони
без кубера

Alexey
18.09.2018
11:36:39
У меня все самое ценное в pg. Если сжечь машину или дом... ну ок, бывает. Если сжечь pg, то 200+ человек остануться без работы. Понятно, что не сильно много. И не мелочь.

bebebe
18.09.2018
11:38:32
cool story

Stas
18.09.2018
12:10:57
Всем привет. Какая рекомендованная практика разнесения окружений (dev, staging & etc)? По кластерам или по namespace'ам? На GKE (т.е. в плане ресурсов на поддержку мастеров мне всё равно). Сейчас разнесено по кластерам, в том числе, чтобы гарантировать изолированность по ресурсам и физическом разделении окружений по безопасности (на разных выделенных нодах), но много где встречаю примеры разделения по namespace'ам, отсюда возник вопрос. Например базовая дока по rbac: https://github.com/GoogleCloudPlatform/gke-rbac-demo
по проектам привязанным к одному биллинг аккаунту, пртчины: тупой гугловый иам, который не интегрирован с кубовым рбаком нормально, тупой биллинг который не интегрирован с кубовой моделью, рпзделение прав доступа нормальное, все что нужно общее для проектов в отдельном проекте, который пирится с остальными

Google

Vasilyev
18.09.2018
12:30:08
Все для людей

Alexander
18.09.2018
12:51:54
Сбор метрик с куб кластера использую prometheus-operator это правильный выбор? Он насколько вижу в бете еще

Михаил
18.09.2018
12:52:46

Alexander
18.09.2018
12:55:14

Valera
18.09.2018
13:18:59


Stas
18.09.2018
13:33:32

Никита
18.09.2018
13:41:20
Коллеги, есть задача на N разных ipvs для одинаковых 5tuple гарантированно выбрать один и тот же бакенд. Как сейчас принято такие штуки решать?

Valera
18.09.2018
13:41:54
среды да, а мониторинг, сбор логов, днс зоны, регистри образов, бакеты под разные артефакты?
У каждой среды всё своё, кроме stackdriver'а, в котором 500е и всякие exception'ы фильтруются и постятся в соответствующий канал слака.
Сбор логов: у каждой среды свои fluentd+elastic . Очень удобно развернулись из GKE Applications, кстати, но конечно же допиливались.
Реестры образов у нас рядом с кодом в self hosted gitlab'е, который, наверное, будет в production кластере (сейчас ещё на aws'е).
С бакетами не вижу проблем: права настраиваются, как и для всего остального..

Stas
18.09.2018
13:43:06

Valera
18.09.2018
13:44:07
Есть плагин для elastic'а: sentinl, но он с 6.3 пока не работает, xpack дорого, поэтому в том числе stackdriver пока используем.

Stas
18.09.2018
14:09:05
У кого-то есть реальный опыт с редхатовским operator lifecycle managerом ?

Yaroslav
18.09.2018
14:44:54
Хай товарищи куберводы , подскажите по монги в кубере :
Есть кубер в нем монга без реплика сета ,
сделал реплика сет (1 primary 2 secondary ).
Реплика сет при старте поднимается чистый, без данных , я с помощью mognorestore раскатываю дамп на primary ноде , насколько я корректно делаю и можно ли обойтись без этого ?
У меня не получилось в кубере настроить PVC и реплика сет не видит старых данных или для реплики сета такое поведение нормально ?

Artem
18.09.2018
14:45:56
без PVC далеко не уедешь

Yaroslav
18.09.2018
14:47:25
эх просто взял готовые чарты для монги и если переключать в них включать отключать реплика сет . то данные не черта не сохраняются. Думал может это трабла монги такая

bebebe
18.09.2018
15:04:11
https://github.com/zlabjp/kubernetes-resource/blob/master/assets/common.sh
всем кубернетеса в concourse работяги

Let Eat
18.09.2018
15:49:23

Google

Banschikov
18.09.2018
15:51:14

Let Eat
18.09.2018
15:52:20

Banschikov
18.09.2018
15:53:53

Let Eat
18.09.2018
15:54:34

Banschikov
18.09.2018
15:56:02

Let Eat
18.09.2018
15:56:49

Дмитрий
18.09.2018
15:58:01
а у кого-нибудь было такое, что в ранчере нельзя войти в определенный под. С ним что-то непонятное происходит. Пытаюсь из gui сделать execute shell, а окно открывается и сразу же закрывается

Mikhail
18.09.2018
15:59:51
вопрос любителям Helm
как в хелпере можно сгенерить строку из YAML-списка в values?
такая штука не работает
{{- define "head-ingress.healthcheck.codes" -}}
{{- range .Values.healthcheck.successCodes -}}
{{- $noop := printf . | append $.codes | set $ "codes" -}}
{{- end -}}
{{- join "," $.codes -}}
{{- end -}}

bebebe
18.09.2018
16:24:29

Dmitriy
18.09.2018
17:58:27
Привет
Может у кого такой проект
Лагом под кубернетисом
----
Микросерисы со стейт акторами должны формировать кластер
Для этого нужно подам дать адреса сидов(вот не знаю может стейтфул сет 3 сиды под каждый такой микросервис делать)
Или может вообще весь деплой микросервиса через стейтфул сет?
Спасибо

Let Eat
18.09.2018
18:13:27

Dmitriy
18.09.2018
18:22:25

Let Eat
18.09.2018
18:27:11

Dmitriy
18.09.2018
18:35:32

Let Eat
18.09.2018
18:38:23

Google

bebebe
18.09.2018
18:50:04

Let Eat
18.09.2018
18:52:50

Dmitriy
18.09.2018
18:55:15
Ну и зачем жопу рвать доказывая что он прав? Разве что ради саморазвития, но тогда причем тут СТО ? :)
Девопс работа реально интересная(когда получается)
Вот в амазон я не полезу, это своя професия
на гугле поднимаю, и нашего парт тайм девопса ждет
"не знаю вот у меня все работает на гугл клауде с кубернетисом , что там х....вертите на амазоне что не работает не знаю"
Метрики нужно было 30к в секунду получить
одна нода кассандры(датастаксовской) дает 10к, при ссд диске к ноде
так вот в амазоне бля тестили с какой-то фигней хелло ворлда где то памяти не хватало то вообще все нафиг дохло
вот приходится доказывать что хоть код рабочий
--
а вообще просто интересно
деву любая девопс работа в раздел достижений в резюме летит ?

Let Eat
18.09.2018
18:59:44
Ну в техническом споре с коллегами, а тем более с руководством выйти победителем это благородная цель

bebebe
18.09.2018
19:10:56
вероятно я все же не понимаю, ипользую concourse 4

Alexey
18.09.2018
19:11:22
kubeless кто-то пользуется? Как там решается zero downtime и "не собирать, если не поменялся код"?

bebebe
18.09.2018
19:11:26
при нажатии этой кнопки, джоба повторяется с теми же ресурсами что и была запущена в "последнем прогоне"
@rossmohax так, я осознал проблему

Alexey
18.09.2018
19:24:45

DASTAN
19.09.2018
05:30:16
ребята, кто может поделиться опытом как интегрировать гитлаб с кубером?