
bebebe
23.04.2018
19:16:27
на мастерах все же nodePort работает

Konstantin
23.04.2018
19:17:39
А в эндпоинтах их скорее всего нет

Ihor
23.04.2018
19:21:26
в доках service controller'a писали, что мастера исключаются из nodeport и loadbalancer. как найду пруф, скину сюда. есди у вас не так, то что-то у вас не так
ну или сразу в код лучше идти...

Google

Let Eat
23.04.2018
19:50:37

Dmitry
23.04.2018
19:50:54

Valentin
23.04.2018
19:51:29
по умолчанию поды на мастере не запускаются, насчёт нодПорта нет ограничений вроде
вернее точно нет, томушо у меня куча сервисов на нодпорте на мастере :))

bebebe
23.04.2018
19:54:24
вечер интересных историй

kvaps
23.04.2018
20:06:09
всем привет, а кто-нибудь в курсе можно ли отключить правило маскарадинга для externalIPs ?

Alisa
24.04.2018
10:34:56
если я в gcloud остановлю ноды кубера, докину им памяти и снова стартану, то проблем не должно быть?

Mikhail
24.04.2018
10:46:15
на bare не должно. Останавливать лучше через drain.

Alisa
24.04.2018
10:46:29
у меня не bare : ^ )

Mikhail
24.04.2018
10:46:44
я знаю, но если честно не вижу разницы )

Paul
24.04.2018
10:48:43
проблем не будет, не забывайте про drain + cordon

Alex Milushev
24.04.2018
11:20:35
привет, проблема с древним кластером кубера версии 1.5.7 на aws, сетка kubenet, насколько Я помню в этом случае должны добавляться записи в таблицу маршрутизации aws, но они не добавляются, куда копать?
iam права есть

Google

Alex Milushev
24.04.2018
11:21:11
кто вообще эти записи добавляет, какой сервис?

Сергей
24.04.2018
11:22:51

Alex Milushev
24.04.2018
11:23:06
копс
лет сто назад
починил

Banschikov
24.04.2018
11:31:11
Всем привет! Может кто-то уже сталкивался с данным вопросом и знает решение. Развертываю кластер Stolon в k8s.
Использую данную инструкцию: https://github.com/sorintlab/stolon/tree/master/examples/kubernetes
Кластер нормально стартует. Тестирую отказоустойчивоть. Имитирую выключение рабочего воркера. Ок, база доступна.
Врубаю рабочий воркер и pod stolon-keepers не стартует. В логах пишет: cannot take exclusive lock on data dir "/stolon-data/lock": open /stolon-data/lock: invalid argument
Может упустил какой-то момент?
Волумы отдаю volumeClaimTemplates при помощи nfs. Контейнер монтирует свой том и выдает такую ошибку

Alexander
24.04.2018
12:23:24
Кто нибудь юзал crunchy-containers ?
или Postgres Operator

M
24.04.2018
13:04:38
ребят а подскажите кубер гдето хранит скачанные образы докера
можно ли както очистить это чтобы заного заставить его их скачивать

Stanislav
24.04.2018
13:04:59
docker images

Alexander
24.04.2018
13:06:44
docker rmi $(docker images -q)
Это удалит все имейжи

M
24.04.2018
13:06:57

Alexander
24.04.2018
13:07:30
Удалить все имейжи без тега
docker rmi $(sudo docker images -f "dangling=true" -q)

Let Eat
24.04.2018
13:10:07

Stanislav
24.04.2018
13:11:05
хотя я не помню удаляет ли он
имажи

Valeriy
24.04.2018
13:12:52
Все, привет!
Скажите, не было ли такого что на ансибле надо было для куба Service как ExternalName сделать?

Google

Sergey
24.04.2018
13:13:36
тогда уж helm юзать

Valeriy
24.04.2018
13:13:54
Вроде есть k8s_raw, но "невыходит каменный цветок"
Какой-то он сырой весь. Например, сервис без порта существовать не может. А когда фейковые порты подкладываешь - он их в список не добавляет (

Alisa
24.04.2018
13:42:34
даа блин, я кордоню и дрейню ноды, а gcloud все равно их перезапускает сразу после остановки не давая их отскейлить
чяднт
а если я создам новый пул узлов и удалю старый, он мне перенесет все данные оттуда?
чому так неудобно btw

Stanislav
24.04.2018
13:58:32
Он не столько переносит, сколько тупо пересоздает

Andrey
24.04.2018
14:16:55
Ребят, а с таким в traefik никто не сталкивался?
Error 400 - urn:ietf:params:acme:error:malformed - Order's status (\"valid\") is not acceptable for finalization]

Алексей
24.04.2018
14:25:50
dockerhub умер, образы вообще не пулятся
есть мануал как подключиться к fidonet? заранее, так сказать, подготовиться

Alisa
24.04.2018
14:30:59

Jeka
24.04.2018
14:33:54

Dmitrii <freehck>
24.04.2018
15:19:02
Народ, а как вы заходите в Dashboard извне кластера?
Я тут осознал, что извне — нельзя по токенам.
Люди тут советуют, что можно запустить kubectl proxy локально, скормив ему admin.conf кластера. Но мне как-то не по нраву такое. Может есть способы попрямее?

Ilya
24.04.2018
15:28:18

Dmitrii <freehck>
24.04.2018
15:28:52
Можно
Нельзя.
https://github.com/kubernetes/dashboard/issues/2540

Ilya
24.04.2018
15:33:32
Блин, я полчаса назад настроил, не за компом уже, завтра напомни

Dmitrii <freehck>
24.04.2018
15:34:36

Google

Aleksey
24.04.2018
15:34:54

Ilya
24.04.2018
15:35:02
Nodeport в кофиг дашборда

Dmitrii <freehck>
24.04.2018
15:40:49
nodePort + token
То есть в описании сервиса выставить в .spec.type не ClusterIP, а NodePort — это понятно.
А куда token вставлять?
Не вижу в списке доступных параметров описания сервиса токена.

Aleksey
24.04.2018
15:41:47
Генеришь пользователя, берешь его токен и в самой дашбопле при логине его используешь

Dmitrii <freehck>
24.04.2018
15:42:55

Aleksey
24.04.2018
15:44:04
<Master_ip>:<nodePort>
У меня перед мастерами HaProxy, хожу через него

Dmitrii <freehck>
24.04.2018
15:45:37
<Master_ip>:<nodePort>
Не выходит. Выдаёт:
Firefox can’t find the file at https://kube-master:31478/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/#!/login.

Aleksey
24.04.2018
15:46:20
Убери все остальное из пути

Dmitrii <freehck>
24.04.2018
15:46:50
Воу.
Спасибо.
Я так понимаю, kubectl proxy мне теперь не нужен...

Aleksey
24.04.2018
15:47:50
Да
Только у меня не получилось через ингресс доступ дать, чтобы по hostname без порта ходить (

Dmitrii <freehck>
24.04.2018
15:55:29
А я вообще ингресс не осилил пока. Хотя попытку вчера сделал.
Слушай, а ведь можно поправить не только .spec.type на NodePort, но и .spec.ports[0].nodePort какой-нибудь поприличнее задать.
А то рандомный — неудобно.
Ладно. В любом случае, пока это оставлю вне плейбука. Потом придумаю, как описать получше.

Google

Paul
24.04.2018
16:10:58
https://techcrunch.com/2018/04/23/heptio-launches-an-open-source-load-balancer-for-kubernetes-and-openstack/
уже обсудили?

Андрэ
24.04.2018
16:21:49
Парни, подскажите начинающему, containerPort указывает на порт, который мы экспозим из пода наружу, верно? ( https://github.com/kubernetes/kubernetes/blob/master/examples/storage/redis/redis-master.yaml#L30 ) Но разве этот порт не должен экспозится из докер контейнера? В примере, что я кинул, редис слушает на стандартном порту, как я понимаю. почему тогда containerPort: 26379 ? Что-то я запутался немного
все, отбой. ) это оказыается стандартынй порт редиса для входящих sentinel

Banschikov
24.04.2018
17:19:11
Всем привет
кто нибуть настраивал Creating local persistent volumes по этой инструкции? https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume

Юрий
24.04.2018
17:23:30

Banschikov
24.04.2018
17:24:30
Да
Можно несколько вопросов в личку? По поводу инструкции

bebebe
24.04.2018
20:13:41

Andrey
24.04.2018
22:18:30
Только у меня не получилось через ингресс доступ дать, чтобы по hostname без порта ходить (
---
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: kubernetes-dashboard
namespace: kube-system
annotations:
kubernetes.io/tls-acme: "true"
nginx.ingress.kubernetes.io/secure-backends: "true"
spec:
tls:
- secretName: k8s-domain-ru-tls
hosts:
- k8s.domain.ru
rules:
- host: k8s.domain.ru
http:
paths:
- backend:
serviceName: kubernetes-dashboard
servicePort: 8443

Konstantin
25.04.2018
03:44:57
Коллеги, кто нибудь интегрировал k8s кластер, поднятый через Rancher 2.0 с GitLab CI? Не получается добавить кластер через вебку. Валится с сообщением:
Kubernetes error: Namespace in version "v1" cannot be handled as a Namespace: no kind "Namespace" is registered for version "clusters and/v1"

Ilya
25.04.2018
05:37:06
можно
Да уже объяснили вчера