@kubernetes_ru

Страница 831 из 958
Andrey
18.09.2018
08:44:43
смотрите логи kubelet

Артем
18.09.2018
08:50:24
Google
Maxim
18.09.2018
09:18:17
Не держать базу в кубе?)
в кубе только миграции запускаю, сами базы снаружи натыканы :)

Andre
18.09.2018
09:29:50
Не держать базу в кубе?)
а в чем проблема держания базы в кубе?

наверное, это очень нубский вопрос

Vladimir
18.09.2018
09:30:57
Iops не хватит

Alexey
18.09.2018
09:31:11
iops хватает, уже обсуждали.

production базы проще админить постаринке + небольшая вероятность бага в docker, которая может все убить.

dev/staging базы без проблем крутятся в кубере

Andre
18.09.2018
09:32:16
как же давно я это делал в последний раз

Alexey
18.09.2018
09:32:33
т.е. прям на ОС раскатывать СУБД?
или на отдельных серверах/vm. у кого как

я не знаю более менее нормального способа раскатать кластер pg например. Да и не нужно его сильно настраивать, чаще всего это master и реплика на чтение, к примеру. Гемора там как обычно + заморочки куба.

А толку от production базы в кубере 0. Только те самые заморочки. И ещё раз внимание, это только для PROD. Для staging/dev раскатывают базу на минималках и норм, это максимум для пары человек.

vlad
18.09.2018
09:36:33
1) на отдельных машинах вне k8s-кластера 2) на конкретных машинах с ssd в k8s-кластере 3) на машинах в k8s-кластере на external volumes

Google
Vadim
18.09.2018
09:38:14
А толку от production базы в кубере 0. Только те самые заморочки. И ещё раз внимание, это только для PROD. Для staging/dev раскатывают базу на минималках и норм, это максимум для пары человек.
если пользоваться нормальным оператором, то не нужно переизобретать бэкапы, например. Кроме того, человеческий мониторинг и лимиты

Alexey
18.09.2018
09:40:40
если пользоваться нормальным оператором, то не нужно переизобретать бэкапы, например. Кроме того, человеческий мониторинг и лимиты
не понимаю, что значит переизобретать бекапы. В любом случае нужно идти писать руками, что вот эти таблички бекапь раз в час, а вот эти каждый день, а те вовсе не нужно. Конкретно pg сгружает данные через telegraf в influx и это все показывается в grafana от prometheus operator, там настройка на пол часа.

M
18.09.2018
10:07:23
ребят не подскажите в helm в некоторых чартах есть файл value-production.yaml он какую роль играет относительно value.yaml?

Anton
18.09.2018
10:07:43
можешь его применять через -f

DASTAN
18.09.2018
11:04:18
приветствую, при установке Helm Tiller в разделе Custom Kubernetes Cluster Integration выходит ошибка Something went wrong while installing Helm Tiller Kubernetes error.

я последовал по примеру этого человека https://stackoverflow.com/questions/50384412/how-to-integrate-kubernetes-with-gitlab

можете подсказать как дальше поступить, логи может прочитать или я криво настраиваю?

Valera
18.09.2018
11:11:27
Всем привет. Какая рекомендованная практика разнесения окружений (dev, staging & etc)? По кластерам или по namespace'ам? На GKE (т.е. в плане ресурсов на поддержку мастеров мне всё равно). Сейчас разнесено по кластерам, в том числе, чтобы гарантировать изолированность по ресурсам и физическом разделении окружений по безопасности (на разных выделенных нодах), но много где встречаю примеры разделения по namespace'ам, отсюда возник вопрос. Например базовая дока по rbac: https://github.com/GoogleCloudPlatform/gke-rbac-demo

Alexey
18.09.2018
11:33:33
И вы готовы пускать эти решения в прод, не боясь бессонных ночей? Или это просто нагугленные решения?

Бери любое, спи спокойно?

Sergey
18.09.2018
11:34:12
столон то чем с бессонницей связан

Alexey
18.09.2018
11:34:37
Я не использовал эти решения, поэтому спрашиваю.

Andor
18.09.2018
11:36:19
у нас патрони

без кубера

Alexey
18.09.2018
11:36:39
У меня все самое ценное в pg. Если сжечь машину или дом... ну ок, бывает. Если сжечь pg, то 200+ человек остануться без работы. Понятно, что не сильно много. И не мелочь.

bebebe
18.09.2018
11:38:32
cool story

Stas
18.09.2018
12:10:57
Google
Vasilyev
18.09.2018
12:30:08
Все для людей

Alexander
18.09.2018
12:51:54
Сбор метрик с куб кластера использую prometheus-operator это правильный выбор? Он насколько вижу в бете еще

Valera
18.09.2018
13:18:59
по проектам привязанным к одному биллинг аккаунту, пртчины: тупой гугловый иам, который не интегрирован с кубовым рбаком нормально, тупой биллинг который не интегрирован с кубовой моделью, рпзделение прав доступа нормальное, все что нужно общее для проектов в отдельном проекте, который пирится с остальными
Рекомендаций по разнесению сред от вас не услышал (cluster или namespace) :( А так да rbac с iam гуглу стоит допилить :) Но rbac работает. Про биллинг не совсем понял. Например autoscaling node-pool'ов сносно работает и билится это, как обычно у GCloud/AWS. Preemtive ноды тоже норм работают.

Никита
18.09.2018
13:41:20
Коллеги, есть задача на N разных ipvs для одинаковых 5tuple гарантированно выбрать один и тот же бакенд. Как сейчас принято такие штуки решать?

Valera
18.09.2018
13:41:54
среды да, а мониторинг, сбор логов, днс зоны, регистри образов, бакеты под разные артефакты?
У каждой среды всё своё, кроме stackdriver'а, в котором 500е и всякие exception'ы фильтруются и постятся в соответствующий канал слака. Сбор логов: у каждой среды свои fluentd+elastic . Очень удобно развернулись из GKE Applications, кстати, но конечно же допиливались. Реестры образов у нас рядом с кодом в self hosted gitlab'е, который, наверное, будет в production кластере (сейчас ещё на aws'е). С бакетами не вижу проблем: права настраиваются, как и для всего остального..

Valera
18.09.2018
13:44:07
Есть плагин для elastic'а: sentinl, но он с 6.3 пока не работает, xpack дорого, поэтому в том числе stackdriver пока используем.

Stas
18.09.2018
14:09:05
У кого-то есть реальный опыт с редхатовским operator lifecycle managerом ?

Yaroslav
18.09.2018
14:44:54
Хай товарищи куберводы , подскажите по монги в кубере : Есть кубер в нем монга без реплика сета , сделал реплика сет (1 primary 2 secondary ). Реплика сет при старте поднимается чистый, без данных , я с помощью mognorestore раскатываю дамп на primary ноде , насколько я корректно делаю и можно ли обойтись без этого ? У меня не получилось в кубере настроить PVC и реплика сет не видит старых данных или для реплики сета такое поведение нормально ?

Artem
18.09.2018
14:45:56
без PVC далеко не уедешь

Yaroslav
18.09.2018
14:47:25
эх просто взял готовые чарты для монги и если переключать в них включать отключать реплика сет . то данные не черта не сохраняются. Думал может это трабла монги такая

bebebe
18.09.2018
15:04:11
https://github.com/zlabjp/kubernetes-resource/blob/master/assets/common.sh

всем кубернетеса в concourse работяги

Google
Banschikov
18.09.2018
15:51:14
Kubespray деплоили?
Нет. Облачный провайдер. Подозреваю что местный глюк

Let Eat
18.09.2018
15:52:20
Нет. Облачный провайдер. Подозреваю что местный глюк
Если у мигрировавших подов нету taint tolerations и у scheduler нет хитрого конфигах , который игнорирует предикаты по taints (как у kubespray) то такого быть не должно

Let Eat
18.09.2018
15:56:49
Хаа) Уже исправили?
Не знаю, не слежу

Дмитрий
18.09.2018
15:58:01
а у кого-нибудь было такое, что в ранчере нельзя войти в определенный под. С ним что-то непонятное происходит. Пытаюсь из gui сделать execute shell, а окно открывается и сразу же закрывается

Mikhail
18.09.2018
15:59:51
вопрос любителям Helm

как в хелпере можно сгенерить строку из YAML-списка в values?

такая штука не работает

{{- define "head-ingress.healthcheck.codes" -}} {{- range .Values.healthcheck.successCodes -}} {{- $noop := printf . | append $.codes | set $ "codes" -}} {{- end -}} {{- join "," $.codes -}} {{- end -}}

bebebe
18.09.2018
16:24:29
Когда concourse научится перезапускать пайплайн без фейковых комитов, можно посмотреть :)
ээээ разверните эту мысль. его можно тригернуть руками через мордочку, либо через fly

Dmitriy
18.09.2018
17:58:27
Привет Может у кого такой проект Лагом под кубернетисом ---- Микросерисы со стейт акторами должны формировать кластер Для этого нужно подам дать адреса сидов(вот не знаю может стейтфул сет 3 сиды под каждый такой микросервис делать) Или может вообще весь деплой микросервиса через стейтфул сет? Спасибо

Dmitriy
18.09.2018
18:22:25
А сиды чем особенные? Только известным именем или у них конфиг особый?
сиды это прикол акки lagomframework Cluster именами особенные, конфигами не обязательно решил сделать через стейтфул сеты тогда со своего стейтфул сета смогу передать свои имена

Dmitriy
18.09.2018
18:35:32
Там Akka cluster под капотом? Вот тут примеры https://developer.lightbend.com/docs/akka-management/current/bootstrap/recipes.html
Спасибо огромное Попробую сделать как мне нравилось когда можно было сказать "не знаю у меня локально все работает" реально тяжко без ошпаренного девопса(такого чтоб и sbt правил) у меня почему-то сто думает что можно без фул тайм крутого девопса в амазоне все развернуть ? экономия

Google
Let Eat
18.09.2018
18:52:50
я вас совсем перестал понимать
https://github.com/concourse/concourse/issues/413

Dmitriy
18.09.2018
18:55:15
Ну и зачем жопу рвать доказывая что он прав? Разве что ради саморазвития, но тогда причем тут СТО ? :)
Девопс работа реально интересная(когда получается) Вот в амазон я не полезу, это своя професия на гугле поднимаю, и нашего парт тайм девопса ждет "не знаю вот у меня все работает на гугл клауде с кубернетисом , что там х....вертите на амазоне что не работает не знаю" Метрики нужно было 30к в секунду получить одна нода кассандры(датастаксовской) дает 10к, при ссд диске к ноде так вот в амазоне бля тестили с какой-то фигней хелло ворлда где то памяти не хватало то вообще все нафиг дохло вот приходится доказывать что хоть код рабочий -- а вообще просто интересно деву любая девопс работа в раздел достижений в резюме летит ?

Let Eat
18.09.2018
18:59:44
Ну в техническом споре с коллегами, а тем более с руководством выйти победителем это благородная цель

bebebe
18.09.2018
19:10:56
вероятно я все же не понимаю, ипользую concourse 4

Alexey
18.09.2018
19:11:22
kubeless кто-то пользуется? Как там решается zero downtime и "не собирать, если не поменялся код"?

bebebe
18.09.2018
19:11:26
при нажатии этой кнопки, джоба повторяется с теми же ресурсами что и была запущена в "последнем прогоне"

@rossmohax так, я осознал проблему

Alexey
18.09.2018
19:24:45
kubeless кто-то пользуется? Как там решается zero downtime и "не собирать, если не поменялся код"?
kubeless function update hello --from-file test.py zerodowntime и "не собирается, если не поменялось (по sha256)"

DASTAN
19.09.2018
05:30:16
ребята, кто может поделиться опытом как интегрировать гитлаб с кубером?

Страница 831 из 958