Valery
05.06.2018
09:07:02
M
05.06.2018
09:49:39
ребята подскажите
кубер(докер)
логи которые пишет добавляет escape \
https://pastebin.com/1Wp6QqLX
как можно изменить это поведение
Дмитрий
05.06.2018
09:52:10
Подскажите, какая сейчас актуальная схема мультимастера?
можно поднять сколько хочешь controller-manager scheduler и kubelet и натравливать их на пачку apiserver через какой-то http прокси?
Google
Anton
05.06.2018
09:52:32
M
05.06.2018
09:52:50
Anton
05.06.2018
09:53:09
я думаю он правильно делает))
M
05.06.2018
09:53:39
я думаю он правильно делает))
так расскажите тогда как правильно да и к тому же выше лог который я показал это лог самого кубера не я его формировал
kvaps
05.06.2018
09:54:57
Не делает
Походу все таки делает http://www.beginswithdata.com/2017/06/23/2017-06-23-fsck-k8s/
M
05.06.2018
09:56:00
Anton
05.06.2018
09:56:27
M
05.06.2018
09:58:10
Anton
05.06.2018
09:58:15
https://docs.docker.com/config/containers/logging/configure/#use-environment-variables-or-labels-with-logging-drivers
Дмитрий
05.06.2018
09:58:38
Anton
05.06.2018
09:59:26
апи серверы пишут только в мастер etcd, так что я так понял им нет смысла выбирать кто из них мастер, в отличии от других компонет контрол плейн
им всем плюс кубелеты как то нужно знать где находятся апи сервера и переключаться между ними, если вдруг какой недоступен, там варианты есть
Google
Дмитрий
05.06.2018
10:03:02
ну вот кубелету можно указать список мастеров, или дать ему проксю на мастерА, или он может из etcd этот список получить?
Anton
05.06.2018
10:03:17
с etcd только апи сервер общается
Дмитрий
05.06.2018
10:05:28
просто раньше у кубелета была такая директива --api-servers
можно было список мастеров передать, сейчас нету
через kubeletconf можно несколько мастеров указать или лучше всё делать через балансер?
кароче походу всё через проксю
MVP
05.06.2018
10:20:26
Valery
05.06.2018
10:28:19
Даниил
05.06.2018
10:55:30
подскажите пож, можно ли в кластере все поды посадить на один айпишник но с разными портами и чтоб эти поды могли бегать на github\s3?
планировал общаться с ними плагином для кубера в дженкинсе. айпишники оч дорогие
Юрий
05.06.2018
10:55:48
minikube reset, зачем kubeadm?
Даниил
05.06.2018
10:56:16
поправил
уже :)
Andor
05.06.2018
10:57:23
что значит "айпишники дорогие"?
может тебе просто надо разные Service сделать?
Даниил
05.06.2018
10:58:13
не у меня куча одинаковых виртуалок, я их хотел засунуть в кластер кубера при помощи кубвирт и работать с ними через дженкинс
мне там надо тесты гонять
Andor
05.06.2018
11:00:16
а, у тебя виртуалки
Эдуард
05.06.2018
11:00:47
Даниил
05.06.2018
11:05:31
nat?
а что если взять контейнер с nginx и спроксировать траффик по доменным именам на виртуалки? с доменами проблем нет ?
Google
kvaps
05.06.2018
11:22:21
а кто openEBS ковырял, есть возможность создать volume бОльшего размера чем физические диски на которых он будет храниться?
Stanislav
05.06.2018
12:19:16
Эдуард
05.06.2018
12:31:37
192 у меня, всего 10$ за подсеть!)
Даниил
05.06.2018
12:34:16
?
Stanislav
05.06.2018
12:35:16
Sergey
05.06.2018
12:40:19
локалхост в мир!
Stanislav
05.06.2018
12:56:51
Не, ну а чо, 127.0.0.0/8 слиииишком жирно для локалхоста)
/24 за глаза)
Andrey
05.06.2018
13:50:34
господа а что в k8s с джобами? переподнять с другим имаджем это только delete/create?
Anton
05.06.2018
13:51:30
а как с этим в докере? поменять на ходу можно чего?
Ярослав
05.06.2018
14:02:52
контейнер не редактируется
Denis
05.06.2018
18:17:09
@SinTeZoiD теперь тоже имеет права Администратора здесь :)
Andor
05.06.2018
18:20:43
ну капец
теперь начнётся
Александр
05.06.2018
18:21:42
всякие цепх и прочее))
Stanislav
05.06.2018
18:22:02
Александр
05.06.2018
18:22:15
Ладно, пойду в другое место флудить)
Google
Alex
05.06.2018
19:13:51
Всем привет! Никак не могу понять как решить одну задачу (( Надо стартовать несколько инстансов postgresql внутри kubernetes, каждый под своим специфичным DNS именем (по корпоративной конвенции).
Ingress не подходит, так как надо подключаться под портом 5432, а Ingress поддерживает только 80 и 443
В сильно крайнем случае, хотя бы сделать так, чтобы под этими доменными именами инстансы постгреса были доступны внутри кластера, но Service нельзя назначить кастомные DNS.
Кластер развернут на bare metal, coreos и tectonic
Помогите, что и где я не понимаю? )
Andor
05.06.2018
19:15:47
кубернетис... корпоративная конвенция про днс...
Mikhail
05.06.2018
19:17:10
Стоит доку почитать про ingress. Особенно в области "поддерживает только 80 и 443 порт"
Admin
Mikhail
05.06.2018
19:17:10
Да и не только про него
Alex
05.06.2018
19:17:57
читаю тут https://kubernetes.io/docs/concepts/services-networking/ingress/
не вижу как реагировать на другой порт кроме как 80 и 443
Andor
05.06.2018
19:21:04
вангую что https://kubernetes.io/docs/concepts/services-networking/service/#type-loadbalancer лучше подойдёт
Alex
05.06.2018
19:21:27
LoadBalancer вроде как только для cloud providers
нет?
Andor
05.06.2018
19:22:02
не обязательно
если у тебя есть контроллер который это поддерживает, то можешь и на baremetal сделать
Alex
05.06.2018
19:22:22
хм... Его не смотрел еще
Mikhail
05.06.2018
19:22:30
https://github.com/google/metallb можно вот так вот
Alex
05.06.2018
19:22:30
с ингресс и сервисами это никак не сделать?
Andor
05.06.2018
19:23:15
сделать
но ингресс по-умолчанию про хттп
а постгрес вроде не хттп
Alex
05.06.2018
19:24:03
проблема не в этом, проблема в том, что у меня есть сотня компонент, которые ожидают постргрес инстансы по доменам at1.example.com и порту 5432
Andor
05.06.2018
19:24:30
а зачем ты вообще постгрес в кубер суёшь?
Google
Александр
05.06.2018
19:25:07
Хотя не, лучше я буду жевать
Alex
05.06.2018
19:26:15
портмаппинг придется хардкодить для всех компонент и инстансов
под каждый компонент свой инстанс постгреса
Deep Sea
05.06.2018
19:28:03
можно в одном поде запускать и код, и постгрес
Mikhail
05.06.2018
19:28:22
А что, если базу в имеющейся СУБД создавать? Или использовать embedded базу?
Andor
05.06.2018
19:29:05
Alex
05.06.2018
19:29:06
Andor
05.06.2018
19:29:12
внутри кубера тебе достаточно Service будет
для автотестов-то
Alex
05.06.2018
19:29:28
оверрайдить можно, но не хочется
Andor
05.06.2018
19:29:42
а, так тебе hosts надо подменять