@kubernetes_ru

Страница 234 из 958
Denis
10.08.2017
14:40:43
kind: ConfigMap apiVersion: v1 metadata: name: foo data: foo.xml: |- <configuration> <foo> </foo> </configuration>

Eugene
10.08.2017
14:41:20
Ключём может быть nginx.conf а значением все содержимое

Роман
10.08.2017
14:42:19
Круто. Спасибо. Я вроде пробовал что-то подобное с утра, но не вышло. Может не то делал. Сейчас гляну файлы...

Maksim
10.08.2017
14:47:59
kubectl create cm test —from-file=test.txt

Google
vladget
10.08.2017
14:49:13
$ kubectl -n dev exec -ti console — redis-cli -h redis-sentinel -p 26379 sentinel get-master-addr-by-name mymaster | head -1 1) "100.96.5.5" подскажите пожалуйста, как мне запроксировать этот под что бы он был виден наружу на всех мастерах и обновлялся при смене мастера?

Maksim
10.08.2017
14:53:33
всмысле при смене Мастера?

И вообще мастер расплывчитое понятие

vladget
10.08.2017
14:54:02
редис-мастера

Роман
10.08.2017
14:57:15
редис-мастера
NodePort не подходит?

vladget
10.08.2017
14:57:53
хотелось бы именно мастера, а не всех redis pods...

там 100500 слейвов

у меня просто есть приложение вне кубера и ему нужен этот редис

Eugene
10.08.2017
15:08:10
Вот ещё немного подумайте и сформулируйте вопрос, а вообще юзайте dynomite

vladget
10.08.2017
15:15:41
За dynomite спасибо - посмотрю.. У меня есть редисы с сентинелемями в кубе, есть приложении вне куба, которому нужно писать в тот же редис что и приложениям в кубе, как проксировать именно под, который в данный момент является мастером в редисе?

такая формулировка норм?

kvaps
10.08.2017
15:31:34
приатачить к мастер редису отдельный label и сделать сервис с селектором этого label?

vladget
10.08.2017
15:32:51
а после смены мастера?

Google
kvaps
10.08.2017
15:33:05
а куб не знает кто мастер?

vladget
10.08.2017
15:33:05
переаттачить лейбл?

нет

kvaps
10.08.2017
15:34:54
если есть возможность сделать хук, который будет вызываться при смене мастера можно дергать api и менять лейбл у нужного пода

но это в теории)

vladget
10.08.2017
15:49:51
а как мне из пода постучаться в api?

Fike
10.08.2017
16:12:33
а после смены мастера?
а там нет коннекта через сентинел или как там оно называется

но в целом запускать ha-кластер redis это немножко беда

vladget
10.08.2017
17:35:11
ну, а если нужно, что делать?

vladget
10.08.2017
17:35:29
ну там почти

там один кейс только приводит к фейлу по-моему

Fike
10.08.2017
17:41:03
Что вообще от этого кластера нужно? Он для проектируемого приложения или уже существующего?

vladget
10.08.2017
17:56:50
существующего... сессии, кеш

Fike
10.08.2017
18:00:39
Я так понимаю, можно время от времени получать мастера через role, подключаясь к любой ноде https://redis.io/commands/role

при смене мастера приложение потеряет возможность писать туда вплоть до повторного чтения статуса кластера, но я так понял, что у вас там нет ничего критичного

Sergey
10.08.2017
18:03:09
Fike
10.08.2017
18:03:27
но вообще должна быть какая-то совсем автоматическая штука для таких вещей, потому что как иначе в обычном режиме выяснять, куда писать

vladget
10.08.2017
18:20:44
конечно эту логику нужно запилить в апликейшен, но хотелось решить это "админскими силами"

Google
Fike
10.08.2017
18:21:31
https://discuss.pivotal.io/hc/en-us/articles/205309388-How-to-setup-HAProxy-and-Redis-Sentinel-for-automatic-failover-between-Redis-Master-and-Slave-servers

vladget
10.08.2017
18:50:03
осталось только придумать как обновлять конфиг haproxy опции server

Rinat
11.08.2017
06:35:18
вопрос такой, приложение одно, а надо его запускать для каждого клиента со своими параметрами, че как такое делается? делать на каждый запуск свой yaml файл с env переменными? или есть шаблонизатор или что-то вроде этого?

kvaps
11.08.2017
07:35:23
https://github.com/kubernetes/helm

Denis
11.08.2017
07:36:17
Кто нибудь тут в проде хелм юзает?

kvaps
11.08.2017
07:36:28
оно вроде jija2 поддерживает

Denis
11.08.2017
07:36:41
подводные камни интересуют как обычно

kvaps
11.08.2017
07:36:52
я если пока даже не пробовал

Maksim
11.08.2017
07:50:54
я пока что принюхиваюсь, но ничего особенного не увидел

Делает объекты кубер по j2 шаблонам

и загружает их в кубер

ньюанс один, helm работает от имени админа кластера) то есть имеет доступ во все неймспейсы

Denis
11.08.2017
07:52:28
я ведь правильно понимаю что там есть ханилище шаблонов, на его основе делаются уже пакеты, которые надо складывать отдельно, и уже их забирает tiller?

Maksim
11.08.2017
07:53:43
ммм

насколько я понял там шаблоны на основе которых делаются например деплой кубера и его сразу кушает тиллер

нету промижуточного этапа

Denis
11.08.2017
08:20:23
Вот тут https://daemonza.github.io/2017/02/20/using-helm-to-deploy-to-kubernetes/

Setting up Helm repository

A Helm repository is nothing more than just a web server that’s able to serve a index.yaml file and chart files, which is really just tar.gz file containing the generated kubernetes resource manifest files from our helm chart templates.

в это репе хранятся архивы с манифестами полученные после запуска шалонизатора

Google
Denis
11.08.2017
08:21:13
насколько я понимаю

еще не копал глубже

ааа, так было два хелма, и helm classic реально использовал отдельный репозиторий для хранение уже готовых манифестов

Jaroslav
11.08.2017
09:25:36
Подскажите как с к8с из контейнера аксессить внешний хост, вроде как на docker run --add-host ??

Let Eat
11.08.2017
09:47:50
Artem
11.08.2017
09:48:36
в соседнем чатике ретрограды обсуждают неготовность кубернетеса к проду! алярма

Admin
ERROR: S client not available

Denis
11.08.2017
09:49:03
сначала ничего не готово к проду, а потом этим уже никто не пользуется :)

Artem
11.08.2017
09:51:56
#ceph

Maksim
11.08.2017
09:52:25
Оо

А им то какое дело)

Artem
11.08.2017
09:55:02
ну там чуваки мастерят "прод", спросили что поюзать такого

кубернетес им не нравится. сыроват да и глючит.

но мне кажется, просто в пробелах запутался в ямле

они там свидетели проксмокса все и иногда опенстека даже

Artem
11.08.2017
09:57:23
я тут за ночь еще одного клиента в кубернетес перевез почти полностью. сейчас пару компонентов еще перепишут под микросервисы, все будет хорошо.

ретрограды в каком-то прошлом веке зависли со своим проксмоксом )

Maksim
11.08.2017
10:04:27
у кубера есть траблы)

Google
Maksim
11.08.2017
10:04:43
но если работать и думать, то все они решаемы )

ну и просто адова документация)

Artem
11.08.2017
10:07:14
да норм

у KVM вот точно адова документация и особенности в реализации такие, что без фляги со спиртом вряд ли разберешься.

Vitaliy
11.08.2017
10:31:51
docker.service Memory: 81.9G подскажите пожалуйста куда копать. Просто перезапустить будет скучно:)

Artem
11.08.2017
10:52:33
docker logs запускал? )

Vitaliy
11.08.2017
10:58:47
Там journald log driver стоит. Не я, так kubelet точно логи смотрел

Artem
11.08.2017
11:05:03
я встречал такое когда очень много логов

Let Eat
11.08.2017
11:40:13
никто не встречал kubeconfig reference? описание всех полей

Paul
11.08.2017
11:40:46
а его док не помогает?

у него вроде был автодок

Let Eat
11.08.2017
11:41:40
как вызвать?

у него вроде был автодок
нашел тут: https://github.com/kubernetes/kubernetes/blob/ebf24c14a916adebc37023be69f112d2c97759a9/staging/src/k8s.io/client-go/tools/clientcmd/api/v1/types.go

Paul
11.08.2017
13:39:33
о, спасибо

Михаил
11.08.2017
17:50:05
ретрограды в каком-то прошлом веке зависли со своим проксмоксом )
2017 год. Один бизнес центр на одном этаже CI CD делают на другом код по сфтп льют) и такое бывает

Artem
11.08.2017
17:50:51
им же хуже )

Kaspar
11.08.2017
17:51:31
могли и по ftp лить

Страница 234 из 958