@kubernetes_ru

Страница 428 из 958
Alexey B
14.02.2018
11:35:02
не думал что local volume это альфа фича с танцами и бубном

Slach
14.02.2018
11:35:29
Народ, а можно на одной железке несколько kubernetes кластеров поднять? вот тут нагуглил, но там изврат с lxc контейрами и значит надо еще будет дополнительно как то внутрь этих кластеров NAT прокдывать https://insights.ubuntu.com/2017/11/13/how-to-deploy-one-or-more-kubernetes-clusters-to-a-single-box/ можно вообще такое сделать? и если да, то ну или например в рамках одного кластера как то по "слоям" поды раскидывать?

Google
Айбелив
14.02.2018
11:40:04
не думал что local volume это альфа фича с танцами и бубном
накинуть всем компонентам кубера 1 аргумент и забыть — это танцы с бубном?

Alexey B
14.02.2018
11:46:34
накинуть всем компонентам кубера 1 аргумент и забыть — это танцы с бубном?
ну для всего: api, scedulel, controller, kublets накидывается по отдельности?

Айбелив
14.02.2018
11:46:47
да

ну либо ждите 1.10, должно быть из коробки

Alexey B
14.02.2018
11:52:28
да интересно будет посмотреть на 1.10, куб так быстро развивается, что пол года назад он был совсем другим. С одной стороны это хорошо

Но с другой - херово Тк стабильно раз в месяц-два приходится скрипты править. CI падает. и кластер на новой версии просто не поднимается

Slach
14.02.2018
12:05:50
звучит как неймспейсы
имеется ввиду linux kernel namespaces??? или какие то namespaces в kubernetes? которые позволяют кластер "слоями" нарезать? чтобы один слой не видел другой?

Maksim
14.02.2018
12:07:01
И стоило бы всё таки почить доку по куберу........

Slach
14.02.2018
12:08:14
И стоило бы всё таки почить доку по куберу........
я читаю, до этого места не добрался или просто не понял что оно значит

Google
Denis
14.02.2018
12:12:53
Точнее может и писал когда-то пока не сложилась картина полная, но последний раз я писал с просьбой чтобы ктонибьудь рубанул etcd на тестовом кластере )

когда уже стало понятно что к чему

Let Eat
14.02.2018
12:17:37
Они там забавно это фиксят. "давайте выпустим апдейт с grpc 1.7.5 в 1.10 но подождем и в 1.9 переносить не будем, пока точно не увидим, что работает" :) 1.10 не буду ставить пока 1.10.5 не будет :)

Denis
14.02.2018
12:27:03
1.10 альфу мы чекнули - работает )

Но чекали только это

Anton
14.02.2018
14:59:43
можно как-то сделать kubectl exec через http api, курлом, например?

Sergey
14.02.2018
15:00:57
можно как-то сделать kubectl exec через http api, курлом, например?
берешь PRC сервер, биндишь вызов shell к процедуре, вжух

Anton
14.02.2018
15:02:29
подскажите, пожалуйста, как его взять, как забиндить и как вжух?

Andrey
14.02.2018
15:05:43
https://github.com/kubernetes/kubernetes/blob/master/pkg/kubectl/cmd/exec.go#L270

как пример

Mikhail
14.02.2018
15:08:20
вы ппц тут умные!

https://serverfault.com/questions/777391/xinetd-read-post-data

Anton
14.02.2018
15:08:31
я так понимаю, все сводится к http rest вызову? https://github.com/kubernetes/kubernetes/blob/master/pkg/kubectl/cmd/exec.go#L312 то есть exec через rest таки работает? мне кажется, я где-то натыкался, что без http2 никак

Andrey
14.02.2018
15:12:43
судя по коду, да, почему бы и нет

Anton
14.02.2018
15:59:40
никак не разберусь, как вайршарком трафик посмотреть от kubectl до сервера, нужно же просто взять из kubeconfig client-key-data, сделать base64 --decode и дать это wireshark? у меня всеравно данные закодированы. Или я что-то упускаю?

Anton
14.02.2018
16:11:50
может уже ответили, не увидел, тогда сори. есть такая штука как initConteiner, возможно это то, что тебе нужно
спасибо, но это не совсем то, что нужно. initContainer обычно уже описан в манифесте. Идея в том, что автор манифеста не знает, что ему подсадят контейнер в под

Vladimir
14.02.2018
16:12:12
хитрО

Google
Anton
14.02.2018
16:12:46
А ты уверен, что тебе нужен wireshark? Мне кажется все что нужно можно увидеть включив расширенное логирование в kubectl
я хочу посмотреть как именно kubectl делает http запрос, чтобы повторить kubectl exec курлом

Anton
14.02.2018
16:14:19
я хочу делать некоторые сетевые настройки на поде при его появлении, для этого я подсаживаю в под контейнер, который снабжен необходимыми утилитами. Понятное дело, я не хочу напрягать автора манифеста тем, чтобы он сам добавлял этот контейнер себе в манифест

Mikhail
14.02.2018
16:14:29
настройте kubectl на него

Pavel
14.02.2018
16:21:12
добавь ключик --v=9

И все будет видно

Anton
14.02.2018
16:21:24
у api-server есть insecure-port
я полагаю, это сработает, при условии, что аписервер запущен с соответствующим ключом?

Anton
14.02.2018
16:24:58
добавь ключик --v=9
спасибо! действительно видно многое, попробую из этого получить рабочую курл команду

интересно, модифицировать pause под эти задачи нельзя?
идея любопытная, но я пока плохо понимаю как именно это сделать. Плюс я таки хочу не во всех подах иметь этот функционал

по хорошему, то, что мне нужно, делается cni плагином (и рано или поздно так и будет сделано), но как всегда надо быстро, а в написать cni плагин еще уметь надо

в общем, нельзя exec просто курлом, сервер там просит SPDY/3.1 upgrade, и курл в это не умеет (или я не знаю как заставить)

Sergey
14.02.2018
17:04:59
мне кажется они там чет по твоей теме обсуждают

Anton
14.02.2018
17:06:57
да, я видел этот трэд, как я понял, вывод у них тот же

Alexey B
14.02.2018
17:25:17
Как настроить в кластере nginx resolver?



Google
Alexey B
14.02.2018
17:25:56
выставляю ip dns service-а но ничего не получается

отдает 502 или 500

Fike
14.02.2018
17:26:43
502 и 500 ничего не говорят о неисправности DNS. Пробовали дебаг-лог включать?

Alexey B
14.02.2018
17:31:25
логи говорят >[error] 26#26: *1 test could not be resolved (3: Host not found)

а в конфиге так: location / { proxy_pass http://test:80; }

Evgeny
14.02.2018
17:38:52
Всем привет! Вопрос, кажется, довольно нубский, но тем не менее: Имеется GKE, в нём через Helm установлен coucourse. Всё это дело дичайше спамит в логи. Не могу разобраться, как настроить нужную переменную окружения(`CONCOURSE_GARDEN_LOG_LEVEL`). Всё что нашел по теме — такого же страждущего: https://github.com/kubernetes/charts/issues/3414 Что делать?

Vitaliy
14.02.2018
17:45:09
kctl get deployment, ktcl edit deployment, env:, либо в чарте хелма, в контейнере добавить env секцию с твоими параметрами

Andrey
14.02.2018
18:12:10
Вопрос. Что произойдет с сервисами в кластере, если пропадёт control plane? Они по прежнему будут работать?

Описано в доках где нибудь проведение системы на этот случай?

Mikhail
14.02.2018
18:15:30
Ну относительно

Ip не обновятся

Поды не перешедулятся

Andrey
14.02.2018
18:16:05
А DNS?

Kubedns будет работать?

Mikhail
14.02.2018
18:17:06
Кеш если есть - точно. Не знаю всасывает он в себя записи или нет

Надо смотреть

Andrey
14.02.2018
18:19:11
Спасибо, будем экспериментировать. Хотя доки все равно придется искать, потому как дизайн надо обосновывать

Andrey
14.02.2018
18:23:46
Есть ответ на SO, но хотелось бы, чтобы это было by design и не поломалась в будущем. https://stackoverflow.com/questions/39172131/what-happens-when-the-kubernetes-master-fails

Google
Andrey
14.02.2018
18:24:30
Днс будет работать, говорят

Mikhail
14.02.2018
18:26:16
Ну там надо смотреть как происходит взаимодействие с апи сервером

Как я понимаю

Что будет когда кеш протухнет

Andrey
14.02.2018
18:39:19
kubedns process watches the Kubernetes master for changes in Services and Endpoints, and maintains in-memory lookup structures to serve DNS requests.

Судя по докам кэш есть в dnsmasq. А kubedns хранит всё

И только мониторит изменения

Ок, значит мастер можно делать не HA

Надо только failover продумать.

Антон
14.02.2018
20:00:48
Привет, кто нибудь сталкивался с проблемой при запуске dashboard $ kubectl logs -n kube-system kubernetes-dashboard-5bd6f767c7-nztxt -f 2018/02/14 13:23:13 Using in-cluster config to connect to apiserver 2018/02/14 13:23:13 Starting overwatch 2018/02/14 13:23:13 Using service account token for csrf signing 2018/02/14 13:23:13 No request provided. Skipping authorization 2018/02/14 13:23:14 Error while initializing connection to Kubernetes apiserver. This most likely means that the cluster is misconfigured (e.g., it has invalid apiserver certificates or service accounts configuration) or the —apiserver-host param points to a server that does not exist. Reason: Get https://10.96.0.1:443/version: dial tcp 10.96.0.1:443: getsockopt: no route to host Refer to our FAQ and wiki pages for more information: https://github.com/kubernetes/dashboard/wiki/FAQ Проверял еще $ kubectl exec -ti busybox -- nslookup kubernetes.default Server: 10.96.0.10 Address 1: 10.96.0.10 nslookup: can't resolve 'kubernetes.default' command terminated with exit code 1 Проблема с настройкой сети видимо какая то...

Anton
15.02.2018
06:36:19
dns например нету

Антон
15.02.2018
07:40:31
dns например нету
да нет там вроде все в порядке поды запущены ошибок в логах нет kube-system kube-dns-6f4fd4bdf-trpdh 3/3 Running 0 39m Я пока решил поменять сеть на weave с flannel

Andrey
15.02.2018
08:33:12
Ребят, вопрос наверное до жути глупый, но как я могу вытащить dashboard куба наружу? Чтоб не ходить на локалхост через ssh туннель

Страница 428 из 958