@kubernetes_ru

Страница 600 из 958
M
05.06.2018
09:49:39
ребята подскажите кубер(докер) логи которые пишет добавляет escape \ https://pastebin.com/1Wp6QqLX

как можно изменить это поведение

Дмитрий
05.06.2018
09:52:10
Подскажите, какая сейчас актуальная схема мультимастера? можно поднять сколько хочешь controller-manager scheduler и kubelet и натравливать их на пачку apiserver через какой-то http прокси?

Google
M
05.06.2018
09:52:50
Anton
05.06.2018
09:53:09
я думаю он правильно делает))

M
05.06.2018
09:53:39
я думаю он правильно делает))
так расскажите тогда как правильно да и к тому же выше лог который я показал это лог самого кубера не я его формировал

kvaps
05.06.2018
09:54:57
Не делает
Походу все таки делает http://www.beginswithdata.com/2017/06/23/2017-06-23-fsck-k8s/

M
05.06.2018
09:56:00
я думаю он правильно делает))
и почему правильно ?

Anton
05.06.2018
09:56:27
Anton
05.06.2018
09:58:15
https://docs.docker.com/config/containers/logging/configure/#use-environment-variables-or-labels-with-logging-drivers

Anton
05.06.2018
09:59:26
нету в кластере механизма понимания кто текущий мастер через etcd?
компоненты выборы устраивают и хранят блокировку, все это через апи происходит

апи серверы пишут только в мастер etcd, так что я так понял им нет смысла выбирать кто из них мастер, в отличии от других компонет контрол плейн

им всем плюс кубелеты как то нужно знать где находятся апи сервера и переключаться между ними, если вдруг какой недоступен, там варианты есть

Google
Дмитрий
05.06.2018
10:03:02
ну вот кубелету можно указать список мастеров, или дать ему проксю на мастерА, или он может из etcd этот список получить?

Anton
05.06.2018
10:03:17
с etcd только апи сервер общается

Дмитрий
05.06.2018
10:05:28
просто раньше у кубелета была такая директива --api-servers

можно было список мастеров передать, сейчас нету

через kubeletconf можно несколько мастеров указать или лучше всё делать через балансер?

кароче походу всё через проксю

MVP
05.06.2018
10:20:26
minikube stop minikube delete kubeadm reset minikube start
у меня kubeadm reset - kubeadm: command not found - мне его отдельно на macOs + minikube надо поставить ?

Valery
05.06.2018
10:28:19
у меня kubeadm reset - kubeadm: command not found - мне его отдельно на macOs + minikube надо поставить ?
думаю да, с яблоками дело не имел - только на центоси

Даниил
05.06.2018
10:55:30
подскажите пож, можно ли в кластере все поды посадить на один айпишник но с разными портами и чтоб эти поды могли бегать на github\s3? планировал общаться с ними плагином для кубера в дженкинсе. айпишники оч дорогие

Юрий
05.06.2018
10:55:48
minikube reset, зачем kubeadm?

Даниил
05.06.2018
10:56:16
поправил

уже :)

Andor
05.06.2018
10:57:23
что значит "айпишники дорогие"?

может тебе просто надо разные Service сделать?

Даниил
05.06.2018
10:58:13
не у меня куча одинаковых виртуалок, я их хотел засунуть в кластер кубера при помощи кубвирт и работать с ними через дженкинс

мне там надо тесты гонять

что значит "айпишники дорогие"?
по 3 бакса за один, а всего будет 40+ виртуалок и железяка

Andor
05.06.2018
11:00:16
а, у тебя виртуалки

Даниил
05.06.2018
11:05:31
nat?
а что если взять контейнер с nginx и спроксировать траффик по доменным именам на виртуалки? с доменами проблем нет ?

Google
kvaps
05.06.2018
11:22:21
а кто openEBS ковырял, есть возможность создать volume бОльшего размера чем физические диски на которых он будет храниться?

Stanislav
05.06.2018
12:19:16
по 3 бакса за один, а всего будет 40+ виртуалок и железяка
Готов продать адреса из подсети 127.0.0.0/8. Всего 0,01$ штука. 10.0.0.0/8 чуть дороже, 0,02$.

Эдуард
05.06.2018
12:31:37
192 у меня, всего 10$ за подсеть!)

Stanislav
05.06.2018
12:35:16
Sergey
05.06.2018
12:40:19
локалхост в мир!

Stanislav
05.06.2018
12:56:51
Не, ну а чо, 127.0.0.0/8 слиииишком жирно для локалхоста)

/24 за глаза)

Andrey
05.06.2018
13:50:34
господа а что в k8s с джобами? переподнять с другим имаджем это только delete/create?

Anton
05.06.2018
13:51:30
а как с этим в докере? поменять на ходу можно чего?

Ярослав
05.06.2018
14:02:52
контейнер не редактируется

Denis
05.06.2018
18:17:09
@SinTeZoiD теперь тоже имеет права Администратора здесь :)

Andor
05.06.2018
18:20:43
ну капец

теперь начнётся

Александр
05.06.2018
18:21:42
всякие цепх и прочее))

Stanislav
05.06.2018
18:22:02
всякие цепх и прочее))
Главное чтоб не глустер)

Александр
05.06.2018
18:22:15
Ладно, пойду в другое место флудить)

Google
Alex
05.06.2018
19:13:51
Всем привет! Никак не могу понять как решить одну задачу (( Надо стартовать несколько инстансов postgresql внутри kubernetes, каждый под своим специфичным DNS именем (по корпоративной конвенции). Ingress не подходит, так как надо подключаться под портом 5432, а Ingress поддерживает только 80 и 443 В сильно крайнем случае, хотя бы сделать так, чтобы под этими доменными именами инстансы постгреса были доступны внутри кластера, но Service нельзя назначить кастомные DNS. Кластер развернут на bare metal, coreos и tectonic Помогите, что и где я не понимаю? )

Andor
05.06.2018
19:15:47
кубернетис... корпоративная конвенция про днс...

Mikhail
05.06.2018
19:17:10
Стоит доку почитать про ingress. Особенно в области "поддерживает только 80 и 443 порт"

Admin


Mikhail
05.06.2018
19:17:10
Да и не только про него

Alex
05.06.2018
19:17:57
читаю тут https://kubernetes.io/docs/concepts/services-networking/ingress/

не вижу как реагировать на другой порт кроме как 80 и 443

Andor
05.06.2018
19:21:04
вангую что https://kubernetes.io/docs/concepts/services-networking/service/#type-loadbalancer лучше подойдёт

Alex
05.06.2018
19:21:27
LoadBalancer вроде как только для cloud providers

нет?

Andor
05.06.2018
19:22:02
не обязательно

если у тебя есть контроллер который это поддерживает, то можешь и на baremetal сделать

Alex
05.06.2018
19:22:22
хм... Его не смотрел еще

Mikhail
05.06.2018
19:22:30
https://github.com/google/metallb можно вот так вот

Alex
05.06.2018
19:22:30
с ингресс и сервисами это никак не сделать?

Andor
05.06.2018
19:23:15
сделать

но ингресс по-умолчанию про хттп

а постгрес вроде не хттп

Alex
05.06.2018
19:24:03
проблема не в этом, проблема в том, что у меня есть сотня компонент, которые ожидают постргрес инстансы по доменам at1.example.com и порту 5432

Andor
05.06.2018
19:24:30
а зачем ты вообще постгрес в кубер суёшь?

Google
Alex
05.06.2018
19:26:15
портмаппинг придется хардкодить для всех компонент и инстансов

а зачем ты вообще постгрес в кубер суёшь?
ну автотесты в кубере, постгрес тоже там хотелось бы. Стартовали тесты, запустили базу, отработали, умерли вместе с базой.

под каждый компонент свой инстанс постгреса

Deep Sea
05.06.2018
19:28:03
можно в одном поде запускать и код, и постгрес

Mikhail
05.06.2018
19:28:22
А что, если базу в имеющейся СУБД создавать? Или использовать embedded базу?

Alex
05.06.2018
19:29:06
А что, если базу в имеющейся СУБД создавать? Или использовать embedded базу?
вот именно сейчас так, шареный постгрес и это плохо) Мешают друг другу, база перегружена

Andor
05.06.2018
19:29:12
внутри кубера тебе достаточно Service будет

для автотестов-то

Alex
05.06.2018
19:29:28
а зачем в автотестах "корпоративные конвенции по днс"?
потому что хардкод, все компоненты ожидают увидеть постгрес по конкретному урлу

оверрайдить можно, но не хочется

Andor
05.06.2018
19:29:42
а, так тебе hosts надо подменять

Страница 600 из 958