@kubernetes_ru

Страница 685 из 958
Andrey
16.07.2018
08:20:54
а на чём боевые БД держат?
у меня лично облако (AWS), так что юзаю EBS

Kirill
16.07.2018
08:21:32
Конфиг хранить можно в configmap, consul, vault
Да не это конфиг с роутингом, там нет ничего секьюрного

Slava
16.07.2018
08:21:34
у меня лично облако (AWS), так что юзаю EBS
а если речь не про внешние API ?

Google
Andrey
16.07.2018
08:22:34
pv (local) + pvc
тогда так. либо тут более прошаренный в k8s+baremetal народ чего подскажет.

может там какой iscsi или fibrechannel, но тут уже не знаю, лично дела не имел, хотя и интересно

Slava
16.07.2018
08:24:42
спасибо за наводку

Alexander
16.07.2018
09:53:01
Ребят, через что деплоите приложение в кубернетес? У меня сейчас gitlab-ci runner в докер стек деплоит через executor docker. Перевожу на кубер, что лучше использовать раннер с исполнителем кубер или ансибл, или еще какой вариант?

Anton
16.07.2018
09:57:50
Sergey
16.07.2018
09:59:30
есть профит от dapp?
скорость заметно быстрее, да и с гита тянет сразу

бизнес-метрик к сожалению нет:))

скоро ребята с фланта обновят доку на русском и английском языках

Alexander
16.07.2018
10:02:22
билды: dapp раннеры: гитлаб через хельм-чарты
А как правильно хранит файлы конфигурации, в той же репе, в отдельной, какой бест практикс на этот счет

Anton
16.07.2018
10:07:20
скорость заметно быстрее, да и с гита тянет сразу
я прост посмотрел, что я в каком то ci описываю что нужно делать, что в dapp тоже самое, только в ci еще нужно добавлять запуск dapp

Alexander
16.07.2018
10:07:47
helm secrets? или о чем речь
Описание деплойментссов, конфигмапов и тд

Google
Gleb
16.07.2018
10:09:55
а на чём боевые БД держат?
если у тебя опенсорс во все поля то ни на чём. Либо нормальный или условно-нормальный сдс или схд внешняя если всё же хочется бд в кубике, а так просто бд туда не тащить и всё. Если амазон\гугл то там тоже нет проблем особо сделать

Slava
16.07.2018
10:11:33
спасибо

пример задачи: есть две стойки, одна под кубик, вторая под диски (RAID), как диски подрубать как хранилище для БД в кубике?

Slava
16.07.2018
10:14:13
ну вот я так же предполагал

только выше в чате писали, что это не есть гут

Psy
16.07.2018
10:17:24
storageClass через цефа?:)
зачем, тут ведь персистент не подразумевается

или подразумевается?

Sergey
16.07.2018
10:18:21
или подразумевается?
так вот и не понятно:)

Slava
16.07.2018
10:18:23
подразумевается как раз таки)

Sergey
16.07.2018
10:18:38
^_^

Slava
16.07.2018
10:20:10
БД в поде только как сервер, обслуживающий запросы, а данные на дисках размазаны

Sergey
16.07.2018
10:20:58
зависит от размеров данных которые вы хотите хранить если данных мало, то городить целый цеф под инфу меньше 50гб я не вижу слишком затратно выходит его обслуживать

Slava
16.07.2018
10:22:21
принято

спасибо

вопрос: а компоненты кубика умеют кешировать данные каждый на своём уровне? цепочка : nginx-ingress -> service -> pod , - есть ли возможность на одном из этих уровней (не доходя до docker-контейнера) отдать закешированный результат (речь про http(s) запросы)

что-то типа такого: apiVersion: v1 type: Ingress ... spec: cacheLifetime: 3600

пока чисто спортивный интерес

Sergey
16.07.2018
10:56:57
Ребята, есть пачка микросервисов в кубе. У каждого микросервиса есть ряд переменных, включая шифрованные, разные ключи коммуникации между сервисами, доступы к базам, сервисам амазона и т.д. На текущий момент используется переменные окружения и секреты кубера. Деплоятся сервисы с переменными из ансибла. Вопрос как наиболее правильно сделать хранение настроек микросервисов, включая секретные данные. Чувствую что нужно брать какой-нибудь KV и учить микросервисы ходить к этому KV на этапе инициализации. Но как тогда сделать repetable deployment переменных в это KV ? спасет ли меня hashi vault ? кто что юзает.

Andrey
16.07.2018
11:00:47
господа, с не очень давних пор kubectl стал иногда задумываться после удаления какого-либо ресурса. с чем это может быть связано?

Google
Andrey
16.07.2018
11:01:06
да

Sergey
16.07.2018
11:01:19
:) а я еще не обновлялся:)

Andrey
16.07.2018
11:01:37
хотя, вроде я и на 1.10.5 такое видел, но не уверен

Sergey
16.07.2018
11:01:41
а что, долго думает?

Andrey
16.07.2018
11:02:04
иногда да, по несколько минут

Andrey
16.07.2018
11:03:13
кажется, он ждет, когда ресурс действительно удалится. сейчас я удаляю pvc, kubectl задумался, а в соседней вкладке терминала с помощью kubectl видно, что pvc в статусе terminating

Sergey
16.07.2018
11:03:42
теперь будем юзать kubectl delete pod & ?

issue в гитхаб куба заведи может прояснят(фидбек если дадут кидайсюды)

Andrey
16.07.2018
11:06:34
сам разобрался

раз https://github.com/kubernetes/kubernetes/pull/64034 два --wait=true: If true, wait for resources to be gone before returning. This waits for finalizers.

Sergey
16.07.2018
11:09:14
?

Алексей
16.07.2018
13:13:57
Привет! Вопрос к helm-гуру У меня есть чарт, в котором куча сервисов ( костыли - велосипеды) Можно ли сделать запуск этих самых сервисов не всех разом, а по одному и по строгой очерёдности, желательно с ready-probe? Благодарствую за советы

Slava
16.07.2018
13:15:58
у меня примерно такая же задача есть, нагуглил пока вот это https://github.com/Mirantis/k8s-AppController

Sergei
16.07.2018
13:16:02
можно сделать init-containers которые проверяют что предыдущий сервис запустился

просто через nslookup можно

он резолвится начнет когда пробы пройдут

Алексей
16.07.2018
13:18:13
Ну это уже получается на уровне k8s и приложений, а не самого хелма Хотелось что бы он сам отслеживал этот момент Спасибо

Slava
16.07.2018
13:18:35
Google
А
16.07.2018
13:19:27
initContainers: - name: wait-clickhouse image: alpine:3.6 command: ['/bin/sh', '-c', 'while ! getent ahostsv4 clickhouse; do sleep 1; done'] containers: как-то так

Алексей
16.07.2018
13:20:10
Да, судя по гуглу - пока что init контейнеры считаются бест практикс

Владислав
16.07.2018
14:39:14
привет. подскажите пожалуйста, может кто уже встречался с проблемой. Приложение задеплоено в нескольких инстансах, но у некоторых не хватает логов (проверяю через docker logs). Причем у одного инстанса полностью все логи есть, а у некоторых других только 1-2 первые строчки из логов. В коде даже в самом начале два лога подряд, и одна строка вывелась, другая - нет. У меня GKE (дефолтная конфигурация, хотя такая же проблема была и на self-hosted) и там centos 7 (+journald). Если кто-то встречался с такой проблемой, подскажите куда копать или как решить проблему можно?

Владислав
16.07.2018
14:51:38
нет, просто логи типа сервис стартанул на таком-то порту, уровень логов такой-то (то есть не о запросах даже речь)

Alex Milushev
16.07.2018
15:31:54
привет, у меня на тестовом класстере api сервер запущен как static pod и вечно валится с evicted, как это исправить можно?

Psy
16.07.2018
15:43:31
привет, у меня на тестовом класстере api сервер запущен как static pod и вечно валится с evicted, как это исправить можно?
Использовать не Pod, а Deployment например чтоб под мог мигрировать или перезапуститься, как я понимаю

Alex Milushev
16.07.2018
15:44:46
Использовать не Pod, а Deployment например чтоб под мог мигрировать или перезапуститься, как я понимаю
хм, там ресурсов на ноде более чем достаточно, но оно дохнет, вот в чем вопрос

Alex Milushev
16.07.2018
15:45:47
и да, если важно, на static pods нет ни реквестов ни лимитов

Vadim
16.07.2018
15:46:40
если 1.11, то надо https://kubernetes.io/docs/concepts/configuration/pod-priority-preemption/

Alex Milushev
16.07.2018
15:46:44
1.10

в 1.11 поломали тлс бутстрап, ну или не нашел как починить

Pavel
16.07.2018
16:09:51
https://kubernetes.io/docs/tasks/administer-cluster/guaranteed-scheduling-critical-addon-pods/
Но ведь эта штука не спасёт если например места на разделе стало не хватать?

Alex Milushev
16.07.2018
16:11:09
проблема в том, что кластер тестовый и момент сломанного пода вечно пропускается, потом вытащить сложно

Vadim
16.07.2018
16:11:42
если места перестало хватать, то вся нода упадет, а тут один под выселяется чтобы вместить другой, насколько я понял

Alex Milushev
16.07.2018
16:11:56
на тех нодах только статик поды

ну и демонсеты с kube-proxy и flannel

Google
Alex Milushev
16.07.2018
16:12:15
то есть там ничего не скедулится

есть идея, что kube-api течет по памяти, но тут Я хз

Pavel
16.07.2018
16:18:09
У нас вот просто подобная проблема тоже была. При сетапе через kubespray api-server, scheduler и controller manager запускаются как поды через манифесты. И если на разделе где kubelet хранит всякую метадату о подах заканчивается место ( меньше 10 процентов) - все поды начинают эвакуироваться. Если мастер нода одна - кластер умирает :)

Vadim
16.07.2018
16:19:47
это кстати вариант, да, нужно смотреть здорова ли нода

Alex Milushev
16.07.2018
16:19:48
а это вариант, да

Juriy
16.07.2018
16:26:45
Ну это не боевая Бд, чисто попробовать. Но работает что самое интересное
А че ей не работать? Там по ио только беда печаль.

Juriy
16.07.2018
16:30:44
Докер

Страница 685 из 958