@kubernetes_ru

Страница 500 из 958
Vladislav
31.03.2018
22:40:47
> ваш провайдер Только разговор начался с вопроса о поднятии сабжа баре-метал
Пусть. Все-равно велосипеды строить не надо. Достаточно уже решений по бекапу хранилищ

Yuriy
01.04.2018
00:43:04
Нужно указывать ETCDCTL_API=3 etcdctl blablabla
Я когда указываю у меня перестают работать все env для etcd, например etcdctl_endpoint

Google
Roman
01.04.2018
00:55:58
У меня интересный вопрос. При любой проблеме с ФС coreos переводит ее в режим readonly. Куб видит при этом ноду как здоровую и пытается на ней поднимать поды, которые понятно не встают. Всякая другая ересь тоже происходит. Вопрос - как сделать так, чтобы при "Read-only filesystem" куб воспринимал ноду как нездоровую?

Вася
01.04.2018
04:48:57
Нужно указывать ETCDCTL_API=3 etcdctl blablabla
Спасибо, у меня через конфиг сделано, отработало как надо

Vyacheslav
01.04.2018
09:58:32
Ребят, есть способ перевести CLI команду kubectl в yaml? Например указание лейбла на ноды, и т.п. Во многих туториалах это просто cli команда.

Mikhail
01.04.2018
10:14:56
Ребят, есть способ перевести CLI команду kubectl в yaml? Например указание лейбла на ноды, и т.п. Во многих туториалах это просто cli команда.
$ kubectl get svc kubia -o yaml apiVersion: v1 kind: Service metadata: creationTimestamp: 2018-03-11T23:12:58Z name: kubia namespace: default resourceVersion: "5427564" selfLink: /api/v1/namespaces/default/services/kubia uid: bcf1eae6-2581-11e8-82bb-de2b50072002 spec: clusterIP: 10.254.139.102 externalTrafficPolicy: Cluster ports: - nodePort: 32521 port: 80 protocol: TCP targetPort: 8080 selector: app: kubia sessionAffinity: None type: NodePort status: loadBalancer: {}

Vyacheslav
01.04.2018
10:15:45
Спасибо

Georgiy
01.04.2018
10:52:28
кто replicas: 2 выставил хрычу ?

Sergey
01.04.2018
10:53:23
кто replicas: 2 выставил хрычу ?
их пять вообще то уже

Anton
01.04.2018
10:56:03
их пять вообще то уже
Так говоришь, как будто проблема забанить всех.

Vladislav
01.04.2018
11:53:41
Старый
01.04.2018
11:56:02
?какие сегодня все злые

P.
01.04.2018
12:36:22
Только что развернул bare metal кластер на одной ноде. С самой ноды все замечательно Пытаюсь приконнектится со своей машины Читаю тут https://github.com/kubernetes-incubator/kubespray/blob/master/docs/getting-started.md#connecting-to-kubernetes "Kubespray permits connecting to the cluster remotely on any IP of any kube-master host on port 6443 by default. However, this requires authentication. One could generate a kubeconfig based on one installed kube-master hosts (needs improvement) or connect with a username and password. By default, a user with admin rights is created, named kube. The password can be viewed after deployment by looking at the file PATH_TO_KUBESPRAY/credentials/kube_user.creds. This contains a randomly generated password. If you wish to set your own password, just precreate/modify this file yourself." Создал config.yaml по гайду https://kubernetes.io/docs/tasks/access-application-cluster/configure-access-multiple-clusters/, прописал туда хост, юзернейм и пароль

Google
P.
01.04.2018
12:36:28
https://pastebin.com/VAtmuJ4d

Получаю такое

https://pastebin.com/FdzZbe8c Вот конфиг файл для кубера

Пароль взял из inventory/local/credentials/kube_user.creds если что

Mikhail
01.04.2018
13:17:36
Пароль взял из inventory/local/credentials/kube_user.creds если что
Ну 403. Значит надо из другого места взять юзера и пароль. Ну или сгенерить.

P.
01.04.2018
13:19:29
Ну 403. Значит надо из другого места взять юзера и пароль. Ну или сгенерить.
Из другого это из какого? По доке выходит что я откуда надо взял-то

А как сгенерить?

Mikhail
01.04.2018
13:22:28
Из другого это из какого? По доке выходит что я откуда надо взял-то
Мне если честно не хочется проверять валидность доки по которой вы ставили. https://github.com/kelseyhightower/kubernetes-the-hard-way/blob/master/docs/10-configuring-kubectl.md вот я шёл по этому пути и у меня работало.

P.
01.04.2018
13:43:51
Решил проблему очень просто: скопировал inventory/local/artifacts/admin.conf на хост (kubespray сам сгенерил за меня)

Valentin
01.04.2018
13:58:26
Я пытаюсь два ингресс контроллера задеплоить на одной ноде в разных неймспейсах. У меня хронический конфликт портов для хелс чека. Очевидно, я что-то косячу в деплоймент.ямл В деплойменте nginx-copntroller'а все порты указываются через command line параметры, отдельно нужно пробы прописывать? Я уже много портов перепробовал (10254-10258), они все оказываются заняты. Всё, извините. На 10259-м поднялось.... :/

Ильдар
01.04.2018
14:16:43
Всем привет, кто-нибудь использует что то из Spring Cloud в Kubernetes ?

Roman
01.04.2018
14:34:56
мониторить и вешать taint на нее по результатам
Немножко гуглил и неочень понял, как повесить кастомный параметр как taint

Вроде как есть только дефолтные типа memorypressure, diskpressure

Andrey
01.04.2018
14:37:10
эээ, а NoSchedule не подходит?

Roman
01.04.2018
15:24:30
эээ, а NoSchedule не подходит?
Так мне надо - если фс ридонли, то NoSchedule

Andrey
01.04.2018
15:44:51
и в чем проблемы?

Roman
01.04.2018
16:03:02
и в чем проблемы?
Что написать перед :NoSchedule ? :)

Yuriy
01.04.2018
16:05:15
Встретил странное поведение кластера, после перезагрузки нод не поднимается CNI, в качестве overlay использую flannel

Dmytro
01.04.2018
16:24:05
А фланнел бежит на хосте или в контейнере демонсетом?

Google
Yuriy
01.04.2018
16:24:55
После перезагрузки из 3-х нод только на одной поднимается CNI

Dmytro
01.04.2018
16:25:08
У меня была такая же история с калико, что другие контейнеры стартанули раньше контейнера с калико и сети ещё не было

Dmytro
01.04.2018
16:25:40
Ну и да, это race condition типичный - не всегда происходит

Yuriy
01.04.2018
16:26:20
Можно как-то order для подов выставить ?

Dmytro
01.04.2018
16:26:59
Уже не помню сейчас, кажется что-то в конфиге cni нужно было дописать чтобы их в первую очередь кубелет запускал

Попробуй погугли на тему race condition

Yuriy
01.04.2018
16:28:13
Alexander
01.04.2018
17:42:35
привет. подскажите наиболее подходящий способ понять внутреннюю архитектуру кубера

установка from Scratch ?

Yuriy
01.04.2018
17:44:41
привет. подскажите наиболее подходящий способ понять внутреннюю архитектуру кубера
Понять не сложно, сложно все это собрать во что-то существенное и работоспособное. Век code-as-infrastructure настал. http://jeffmendoza.github.io/kubernetes/ Вот тут все есть

Alexander
01.04.2018
17:46:40
я опеншифт с помощью ансибла развернул , но не все понятно осталось - поэтому хочется именно разобраться с каждым компонентом

что-то слышал про "hard way" , но не помню к шифту это относилось или куберу. https://github.com/kelseyhightower/kubernetes-the-hard-way - кто-либо пробовал ?

Alexey
01.04.2018
17:59:02
А тут все сидят на калико и фланели? В aws клауде weave никто не пользует?

Ihor
01.04.2018
18:01:04
пользует и весьма успешно, с gossip dns даже

Yuriy
01.04.2018
18:01:48
Никто не сталкивался с проблемой, при создании cbr0 для bridge после перезагрузки ноды, cbr0 бридж пропадает, сделать его persistent не получается, правка interdfaces и указание его в списке интерфейсов не помагает. ??? OS. UBUNTU 16.04

Alexey
01.04.2018
18:03:30
пользует и весьма успешно, с gossip dns даже
У меня weave постоянно сваливается в режим sleeve. Weave работает в режиме шифрования. У вас такого не наблюдается? МТУ 8 кб

Ihor
01.04.2018
18:04:16
ноуп, а нафига вам энкрипшн? слышал много негативных отзывов о его работе

Google
Alexey
01.04.2018
18:06:47
ноуп, а нафига вам энкрипшн? слышал много негативных отзывов о его работе
Требование шифровать весь трафик, есть вариант шифровать каждое соединение, думали, обойдемся малой кровью, если зашифруем все

Ihor
01.04.2018
18:08:36
mtu ровно 8912?

Alexey
01.04.2018
18:08:49
Да

192

8192

Они рекомендуют ставить это значение на 9000 джамбо фреймах авс

Ihor
01.04.2018
18:10:05
ну здрасте, 9001-87 байт

считайте и ставьте правильный. скорее всего, из-за этого в слив мод и сваливается

Alexey
01.04.2018
18:11:05
Проверю еще раз, спасибо

Но я и так ставлю меньше, а не больше

Это все равно может быть причиной?

Еще одна деталь - там были tx drop на vxlan интерфейсе

И была теория что кернел не успевает шифровать трафик

Yuriy
01.04.2018
18:12:53
Еще раз прошу Вашего совета по поводу cbr0 интерфейса ? все ли его создают ? и меняют параметр запуска сервиса докера на —bridge=cbr0 ??? или кто то использует дефолтный docker0 ??

Alexey
01.04.2018
18:12:57
Надо было сразу сказать

Ihor
01.04.2018
18:16:24
у вас weave в подах?

Alexey
01.04.2018
18:18:09
В подах

В демонсете

Ihor
01.04.2018
18:19:25
ну, возможно, лимиты повысить? вот не верится, что ядро не успевает

ENA еще можете попробовать, если тип инстансов поддерживает

Google
Let Eat
01.04.2018
18:20:38
Так мне надо - если фс ридонли, то NoSchedule
формат <причина>:<Effect>, причина может быть любая, например "debug-in-progress-see-ticket-6999:NoSchedule"

эффектов кажется 2: NoSchedule и NoExecute

Alexey
01.04.2018
18:21:40
ну, возможно, лимиты повысить? вот не верится, что ядро не успевает
Там интересная картина, все начинает в фастдп, все хорошо, потом начинают переходить в слив по одному два в день, это вроде бы коррелирует с всплесками сетевой нагрузки

Yuriy
01.04.2018
18:21:55
эффектов кажется 2: NoSchedule и NoExecute
Может вы поможете с моим вопросом , если встречались с данной проблемой? заранее благодарен

Страница 500 из 958