@kubernetes_ru

Страница 533 из 958
bebebe
23.04.2018
19:16:27
на мастерах все же nodePort работает

Konstantin
23.04.2018
19:17:39
А в эндпоинтах их скорее всего нет

Ihor
23.04.2018
19:21:26
в доках service controller'a писали, что мастера исключаются из nodeport и loadbalancer. как найду пруф, скину сюда. есди у вас не так, то что-то у вас не так

ну или сразу в код лучше идти...

Google
Valentin
23.04.2018
19:51:29
по умолчанию поды на мастере не запускаются, насчёт нодПорта нет ограничений вроде

вернее точно нет, томушо у меня куча сервисов на нодпорте на мастере :))

bebebe
23.04.2018
19:54:24
вечер интересных историй

kvaps
23.04.2018
20:06:09
всем привет, а кто-нибудь в курсе можно ли отключить правило маскарадинга для externalIPs ?

Alisa
24.04.2018
10:34:56
если я в gcloud остановлю ноды кубера, докину им памяти и снова стартану, то проблем не должно быть?

Mikhail
24.04.2018
10:46:15
на bare не должно. Останавливать лучше через drain.

Alisa
24.04.2018
10:46:29
у меня не bare : ^ )

Mikhail
24.04.2018
10:46:44
я знаю, но если честно не вижу разницы )

Paul
24.04.2018
10:48:43
проблем не будет, не забывайте про drain + cordon

Alex Milushev
24.04.2018
11:20:35
привет, проблема с древним кластером кубера версии 1.5.7 на aws, сетка kubenet, насколько Я помню в этом случае должны добавляться записи в таблицу маршрутизации aws, но они не добавляются, куда копать?

iam права есть

Google
Alex Milushev
24.04.2018
11:21:11
кто вообще эти записи добавляет, какой сервис?

Сергей
24.04.2018
11:22:51
Alex Milushev
24.04.2018
11:23:06
копс

лет сто назад

починил

Banschikov
24.04.2018
11:31:11
Всем привет! Может кто-то уже сталкивался с данным вопросом и знает решение. Развертываю кластер Stolon в k8s. Использую данную инструкцию: https://github.com/sorintlab/stolon/tree/master/examples/kubernetes Кластер нормально стартует. Тестирую отказоустойчивоть. Имитирую выключение рабочего воркера. Ок, база доступна. Врубаю рабочий воркер и pod stolon-keepers не стартует. В логах пишет: cannot take exclusive lock on data dir "/stolon-data/lock": open /stolon-data/lock: invalid argument Может упустил какой-то момент? Волумы отдаю volumeClaimTemplates при помощи nfs. Контейнер монтирует свой том и выдает такую ошибку

Alexander
24.04.2018
12:23:24
Кто нибудь юзал crunchy-containers ?

или Postgres Operator

M
24.04.2018
13:04:38
ребят а подскажите кубер гдето хранит скачанные образы докера

можно ли както очистить это чтобы заного заставить его их скачивать

Stanislav
24.04.2018
13:04:59
docker images

Alexander
24.04.2018
13:06:44
docker rmi $(docker images -q)

Это удалит все имейжи

M
24.04.2018
13:06:57
docker images
а чтото типа kubectl clear all image

Alexander
24.04.2018
13:07:30
Удалить все имейжи без тега docker rmi $(sudo docker images -f "dangling=true" -q)

Stanislav
24.04.2018
13:11:05
а чтото типа kubectl clear all image
kubeadm reset если только)

хотя я не помню удаляет ли он

имажи

Valeriy
24.04.2018
13:12:52
Все, привет! Скажите, не было ли такого что на ансибле надо было для куба Service как ExternalName сделать?

Google
Sergey
24.04.2018
13:13:36
тогда уж helm юзать

Valeriy
24.04.2018
13:13:54
Вроде есть k8s_raw, но "невыходит каменный цветок"

Какой-то он сырой весь. Например, сервис без порта существовать не может. А когда фейковые порты подкладываешь - он их в список не добавляет (

Alisa
24.04.2018
13:42:34
даа блин, я кордоню и дрейню ноды, а gcloud все равно их перезапускает сразу после остановки не давая их отскейлить

чяднт

а если я создам новый пул узлов и удалю старый, он мне перенесет все данные оттуда?

чому так неудобно btw

Stanislav
24.04.2018
13:58:32
Он не столько переносит, сколько тупо пересоздает

Andrey
24.04.2018
14:16:55
Ребят, а с таким в traefik никто не сталкивался? Error 400 - urn:ietf:params:acme:error:malformed - Order's status (\"valid\") is not acceptable for finalization]

Алексей
24.04.2018
14:25:50
dockerhub умер, образы вообще не пулятся есть мануал как подключиться к fidonet? заранее, так сказать, подготовиться

Alisa
24.04.2018
14:30:59
а если я создам новый пул узлов и удалю старый, он мне перенесет все данные оттуда?
создал новый пул, удалил старый, все норм перенеслось, даже данные не потерял по пути c:

Jeka
24.04.2018
14:33:54


Dmitrii <freehck>
24.04.2018
15:19:02
Народ, а как вы заходите в Dashboard извне кластера?

Я тут осознал, что извне — нельзя по токенам.

Люди тут советуют, что можно запустить kubectl proxy локально, скормив ему admin.conf кластера. Но мне как-то не по нраву такое. Может есть способы попрямее?

Dmitrii <freehck>
24.04.2018
15:28:52
Можно
Нельзя. https://github.com/kubernetes/dashboard/issues/2540

Ilya
24.04.2018
15:33:32
Блин, я полчаса назад настроил, не за компом уже, завтра напомни

Dmitrii <freehck>
24.04.2018
15:34:36
Блин, я полчаса назад настроил, не за компом уже, завтра напомни
Если настроил — то хоть в какую сторону смотреть подскажи.

Google
Ilya
24.04.2018
15:35:02
Nodeport в кофиг дашборда

Dmitrii <freehck>
24.04.2018
15:40:49
nodePort + token
То есть в описании сервиса выставить в .spec.type не ClusterIP, а NodePort — это понятно. А куда token вставлять?

Не вижу в списке доступных параметров описания сервиса токена.

Aleksey
24.04.2018
15:41:47
Генеришь пользователя, берешь его токен и в самой дашбопле при логине его используешь

Dmitrii <freehck>
24.04.2018
15:42:55
Генеришь пользователя, берешь его токен и в самой дашбопле при логине его используешь
А в dashboard заходить всё по тому же <master-ip>:8001 для этого, или вместо 8001 надо что-то другое подставлять?

Aleksey
24.04.2018
15:44:04
<Master_ip>:<nodePort>

У меня перед мастерами HaProxy, хожу через него

Dmitrii <freehck>
24.04.2018
15:45:37
<Master_ip>:<nodePort>
Не выходит. Выдаёт: Firefox can’t find the file at https://kube-master:31478/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/#!/login.

Aleksey
24.04.2018
15:46:20
Убери все остальное из пути

Dmitrii <freehck>
24.04.2018
15:46:50
Воу.

Спасибо.

Убери все остальное из пути
Мужик, спасибо тебе большое. Выручил. Работает.

Я так понимаю, kubectl proxy мне теперь не нужен...

Aleksey
24.04.2018
15:47:50
Да

Только у меня не получилось через ингресс доступ дать, чтобы по hostname без порта ходить (

Dmitrii <freehck>
24.04.2018
15:55:29
А я вообще ингресс не осилил пока. Хотя попытку вчера сделал.

Слушай, а ведь можно поправить не только .spec.type на NodePort, но и .spec.ports[0].nodePort какой-нибудь поприличнее задать.

А то рандомный — неудобно.

Ладно. В любом случае, пока это оставлю вне плейбука. Потом придумаю, как описать получше.

Google
Paul
24.04.2018
16:10:58
https://techcrunch.com/2018/04/23/heptio-launches-an-open-source-load-balancer-for-kubernetes-and-openstack/ уже обсудили?

Андрэ
24.04.2018
16:21:49
Парни, подскажите начинающему, containerPort указывает на порт, который мы экспозим из пода наружу, верно? ( https://github.com/kubernetes/kubernetes/blob/master/examples/storage/redis/redis-master.yaml#L30 ) Но разве этот порт не должен экспозится из докер контейнера? В примере, что я кинул, редис слушает на стандартном порту, как я понимаю. почему тогда containerPort: 26379 ? Что-то я запутался немного

все, отбой. ) это оказыается стандартынй порт редиса для входящих sentinel

Banschikov
24.04.2018
17:19:11
Всем привет

кто нибуть настраивал Creating local persistent volumes по этой инструкции? https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume

Banschikov
24.04.2018
17:24:30
Да
Можно несколько вопросов в личку? По поводу инструкции

Andrey
24.04.2018
22:18:30
Только у меня не получилось через ингресс доступ дать, чтобы по hostname без порта ходить (
--- apiVersion: extensions/v1beta1 kind: Ingress metadata: name: kubernetes-dashboard namespace: kube-system annotations: kubernetes.io/tls-acme: "true" nginx.ingress.kubernetes.io/secure-backends: "true" spec: tls: - secretName: k8s-domain-ru-tls hosts: - k8s.domain.ru rules: - host: k8s.domain.ru http: paths: - backend: serviceName: kubernetes-dashboard servicePort: 8443

Konstantin
25.04.2018
03:44:57
Коллеги, кто нибудь интегрировал k8s кластер, поднятый через Rancher 2.0 с GitLab CI? Не получается добавить кластер через вебку. Валится с сообщением: Kubernetes error: Namespace in version "v1" cannot be handled as a Namespace: no kind "Namespace" is registered for version "clusters and/v1"

Ilya
25.04.2018
05:37:06
можно
Да уже объяснили вчера

Страница 533 из 958