
Andrey
16.07.2018
08:20:54

Kirill
16.07.2018
08:21:32

Slava
16.07.2018
08:21:34

Google

Andrey
16.07.2018
08:22:34
pv (local) + pvc
тогда так. либо тут более прошаренный в k8s+baremetal народ чего подскажет.
может там какой iscsi или fibrechannel, но тут уже не знаю, лично дела не имел, хотя и интересно

Slava
16.07.2018
08:24:42
спасибо за наводку

Alexander
16.07.2018
09:53:01
Ребят, через что деплоите приложение в кубернетес? У меня сейчас gitlab-ci runner в докер стек деплоит через executor docker. Перевожу на кубер, что лучше использовать раннер с исполнителем кубер или ансибл, или еще какой вариант?

Sergey
16.07.2018
09:56:33

Anton
16.07.2018
09:57:50

Sergey
16.07.2018
09:59:30
бизнес-метрик к сожалению нет:))
скоро ребята с фланта обновят доку на русском и английском языках

Alexander
16.07.2018
10:02:22

Sergey
16.07.2018
10:05:17

Anton
16.07.2018
10:07:20

Alexander
16.07.2018
10:07:47

Google

Gleb
16.07.2018
10:09:55
а на чём боевые БД держат?
если у тебя опенсорс во все поля то ни на чём. Либо нормальный или условно-нормальный сдс или схд внешняя если всё же хочется бд в кубике, а так просто бд туда не тащить и всё.
Если амазон\гугл то там тоже нет проблем особо сделать

Slava
16.07.2018
10:11:33
спасибо
пример задачи: есть две стойки, одна под кубик, вторая под диски (RAID), как диски подрубать как хранилище для БД в кубике?

Sergey
16.07.2018
10:13:51

Slava
16.07.2018
10:14:13
ну вот я так же предполагал
только выше в чате писали, что это не есть гут

Psy
16.07.2018
10:17:24
или подразумевается?

Sergey
16.07.2018
10:18:21

Slava
16.07.2018
10:18:23
подразумевается как раз таки)

Sergey
16.07.2018
10:18:38
^_^

Slava
16.07.2018
10:20:10
БД в поде только как сервер, обслуживающий запросы, а данные на дисках размазаны

Sergey
16.07.2018
10:20:58
зависит от размеров данных которые вы хотите хранить
если данных мало, то городить целый цеф под инфу меньше 50гб я не вижу
слишком затратно выходит его обслуживать

Slava
16.07.2018
10:22:21
принято
спасибо
вопрос: а компоненты кубика умеют кешировать данные каждый на своём уровне? цепочка : nginx-ingress -> service -> pod , - есть ли возможность на одном из этих уровней (не доходя до docker-контейнера) отдать закешированный результат (речь про http(s) запросы)
что-то типа такого:
apiVersion: v1
type: Ingress
...
spec:
cacheLifetime: 3600
пока чисто спортивный интерес


Sergey
16.07.2018
10:56:57
Ребята, есть пачка микросервисов в кубе. У каждого микросервиса есть ряд переменных, включая шифрованные, разные ключи коммуникации между сервисами, доступы к базам, сервисам амазона и т.д. На текущий момент используется переменные окружения и секреты кубера. Деплоятся сервисы с переменными из ансибла.
Вопрос как наиболее правильно сделать хранение настроек микросервисов, включая секретные данные. Чувствую что нужно брать какой-нибудь KV и учить микросервисы ходить к этому KV на этапе инициализации. Но как тогда сделать repetable deployment переменных в это KV ? спасет ли меня hashi vault ? кто что юзает.

Andrey
16.07.2018
11:00:47
господа, с не очень давних пор kubectl стал иногда задумываться после удаления какого-либо ресурса. с чем это может быть связано?

Google

Sergey
16.07.2018
11:01:03

Andrey
16.07.2018
11:01:06
да

Sergey
16.07.2018
11:01:19
:)
а я еще не обновлялся:)

Andrey
16.07.2018
11:01:37
хотя, вроде я и на 1.10.5 такое видел, но не уверен

Sergey
16.07.2018
11:01:41
а что, долго думает?

Andrey
16.07.2018
11:02:04
иногда да, по несколько минут

Vadim
16.07.2018
11:02:58

Andrey
16.07.2018
11:03:13
кажется, он ждет, когда ресурс действительно удалится. сейчас я удаляю pvc, kubectl задумался, а в соседней вкладке терминала с помощью kubectl видно, что pvc в статусе terminating

Sergey
16.07.2018
11:03:42
теперь будем юзать kubectl delete pod &
?
issue в гитхаб куба заведи может прояснят(фидбек если дадут кидайсюды)

Andrey
16.07.2018
11:06:34
сам разобрался
раз https://github.com/kubernetes/kubernetes/pull/64034
два
--wait=true: If true, wait for resources to be gone before returning. This waits for finalizers.

Sergey
16.07.2018
11:09:14
?

Алексей
16.07.2018
13:13:57
Привет!
Вопрос к helm-гуру
У меня есть чарт, в котором куча сервисов ( костыли - велосипеды)
Можно ли сделать запуск этих самых сервисов не всех разом, а по одному и по строгой очерёдности, желательно с ready-probe?
Благодарствую за советы

Slava
16.07.2018
13:15:58
у меня примерно такая же задача есть, нагуглил пока вот это
https://github.com/Mirantis/k8s-AppController

Sergei
16.07.2018
13:16:02
можно сделать init-containers которые проверяют что предыдущий сервис запустился
просто через nslookup можно
он резолвится начнет когда пробы пройдут

Алексей
16.07.2018
13:18:13
Ну это уже получается на уровне k8s и приложений, а не самого хелма
Хотелось что бы он сам отслеживал этот момент
Спасибо

Slava
16.07.2018
13:18:35

Google

А
16.07.2018
13:19:27
initContainers:
- name: wait-clickhouse
image: alpine:3.6
command: ['/bin/sh', '-c', 'while ! getent ahostsv4 clickhouse; do sleep 1; done']
containers:
как-то так

Алексей
16.07.2018
13:20:10
Да, судя по гуглу - пока что init контейнеры считаются бест практикс

Владислав
16.07.2018
14:39:14
привет. подскажите пожалуйста, может кто уже встречался с проблемой. Приложение задеплоено в нескольких инстансах, но у некоторых не хватает логов (проверяю через docker logs). Причем у одного инстанса полностью все логи есть, а у некоторых других только 1-2 первые строчки из логов. В коде даже в самом начале два лога подряд, и одна строка вывелась, другая - нет.
У меня GKE (дефолтная конфигурация, хотя такая же проблема была и на self-hosted) и там centos 7 (+journald).
Если кто-то встречался с такой проблемой, подскажите куда копать или как решить проблему можно?

Serg
16.07.2018
14:50:43

Владислав
16.07.2018
14:51:38
нет, просто логи типа сервис стартанул на таком-то порту, уровень логов такой-то (то есть не о запросах даже речь)

Alex Milushev
16.07.2018
15:31:54
привет, у меня на тестовом класстере api сервер запущен как static pod и вечно валится с evicted, как это исправить можно?

Psy
16.07.2018
15:43:31

Alex Milushev
16.07.2018
15:44:46

Vadim
16.07.2018
15:45:29

Alex Milushev
16.07.2018
15:45:47
и да, если важно, на static pods нет ни реквестов ни лимитов

Vadim
16.07.2018
15:46:40
если 1.11, то надо https://kubernetes.io/docs/concepts/configuration/pod-priority-preemption/

Alex Milushev
16.07.2018
15:46:44
1.10
в 1.11 поломали тлс бутстрап, ну или не нашел как починить

Pavel
16.07.2018
16:09:51

Alex Milushev
16.07.2018
16:11:09
проблема в том, что кластер тестовый и момент сломанного пода вечно пропускается, потом вытащить сложно

Vadim
16.07.2018
16:11:42
если места перестало хватать, то вся нода упадет, а тут один под выселяется чтобы вместить другой, насколько я понял

Alex Milushev
16.07.2018
16:11:56
на тех нодах только статик поды
ну и демонсеты с kube-proxy и flannel

Google

Alex Milushev
16.07.2018
16:12:15
то есть там ничего не скедулится
есть идея, что kube-api течет по памяти, но тут Я хз

Pavel
16.07.2018
16:18:09
У нас вот просто подобная проблема тоже была. При сетапе через kubespray api-server, scheduler и controller manager запускаются как поды через манифесты. И если на разделе где kubelet хранит всякую метадату о подах заканчивается место ( меньше 10 процентов) - все поды начинают эвакуироваться. Если мастер нода одна - кластер умирает :)

Vadim
16.07.2018
16:19:47
это кстати вариант, да, нужно смотреть здорова ли нода

Alex Milushev
16.07.2018
16:19:48
а это вариант, да

Juriy
16.07.2018
16:26:45


Alexander
16.07.2018
16:27:30

Paul
16.07.2018
16:28:15

Алексей
16.07.2018
16:29:37

Juriy
16.07.2018
16:30:44
Докер