
Alexey B
14.02.2018
11:35:02
не думал что local volume это альфа фича с танцами и бубном

Slach
14.02.2018
11:35:29
Народ, а можно на одной железке несколько kubernetes кластеров поднять?
вот тут нагуглил, но там изврат с lxc контейрами и значит надо еще будет дополнительно как то внутрь этих кластеров NAT прокдывать
https://insights.ubuntu.com/2017/11/13/how-to-deploy-one-or-more-kubernetes-clusters-to-a-single-box/
можно вообще такое сделать? и если да, то
ну или например в рамках одного кластера как то по "слоям" поды раскидывать?

Andrey
14.02.2018
11:36:04

Mikhail
14.02.2018
11:36:48

Google

Айбелив
14.02.2018
11:40:04

Alexey B
14.02.2018
11:46:34

Айбелив
14.02.2018
11:46:47
да
ну либо ждите 1.10, должно быть из коробки

Alexey B
14.02.2018
11:52:28
да интересно будет посмотреть на 1.10, куб так быстро развивается, что пол года назад он был совсем другим. С одной стороны это хорошо
Но с другой - херово Тк стабильно раз в месяц-два приходится скрипты править. CI падает. и кластер на новой версии просто не поднимается

Slach
14.02.2018
12:05:50
звучит как неймспейсы
имеется ввиду linux kernel namespaces??? или какие то namespaces в kubernetes? которые позволяют кластер "слоями" нарезать? чтобы один слой не видел другой?

Maksim
14.02.2018
12:07:01
И стоило бы всё таки почить доку по куберу........

Mikhail
14.02.2018
12:08:04

Slach
14.02.2018
12:08:14

Let Eat
14.02.2018
12:12:21

Google

Denis
14.02.2018
12:12:53
Точнее может и писал когда-то пока не сложилась картина полная, но последний раз я писал с просьбой чтобы ктонибьудь рубанул etcd на тестовом кластере )
когда уже стало понятно что к чему

Let Eat
14.02.2018
12:17:37
Они там забавно это фиксят. "давайте выпустим апдейт с grpc 1.7.5 в 1.10 но подождем и в 1.9 переносить не будем, пока точно не увидим, что работает" :) 1.10 не буду ставить пока 1.10.5 не будет :)

Denis
14.02.2018
12:27:03
1.10 альфу мы чекнули - работает )
Но чекали только это

Anton
14.02.2018
14:59:43
можно как-то сделать kubectl exec через http api, курлом, например?

Sergey
14.02.2018
15:00:57

Anton
14.02.2018
15:02:29
подскажите, пожалуйста, как его взять, как забиндить и как вжух?

Andrey
14.02.2018
15:05:43
https://github.com/kubernetes/kubernetes/blob/master/pkg/kubectl/cmd/exec.go#L270
как пример

Mikhail
14.02.2018
15:08:20
вы ппц тут умные!
https://serverfault.com/questions/777391/xinetd-read-post-data

Anton
14.02.2018
15:08:31
я так понимаю, все сводится к http rest вызову?
https://github.com/kubernetes/kubernetes/blob/master/pkg/kubectl/cmd/exec.go#L312
то есть exec через rest таки работает? мне кажется, я где-то натыкался, что без http2 никак

Andrey
14.02.2018
15:12:43
судя по коду, да, почему бы и нет

Anton
14.02.2018
15:59:40
никак не разберусь, как вайршарком трафик посмотреть от kubectl до сервера, нужно же просто взять из kubeconfig client-key-data, сделать base64 --decode и дать это wireshark? у меня всеравно данные закодированы. Или я что-то упускаю?

Vladimir
14.02.2018
16:10:32

Pavel
14.02.2018
16:11:27

Anton
14.02.2018
16:11:50

Vladimir
14.02.2018
16:12:12
хитрО

Google

Anton
14.02.2018
16:12:46

Vladimir
14.02.2018
16:13:24

Anton
14.02.2018
16:14:19
я хочу делать некоторые сетевые настройки на поде при его появлении, для этого я подсаживаю в под контейнер, который снабжен необходимыми утилитами. Понятное дело, я не хочу напрягать автора манифеста тем, чтобы он сам добавлял этот контейнер себе в манифест

Mikhail
14.02.2018
16:14:29
настройте kubectl на него

Pavel
14.02.2018
16:21:12
добавь ключик --v=9
И все будет видно

Anton
14.02.2018
16:21:24

Mikhail
14.02.2018
16:22:32

Anton
14.02.2018
16:24:58
добавь ключик --v=9
спасибо! действительно видно многое, попробую из этого получить рабочую курл команду
по хорошему, то, что мне нужно, делается cni плагином (и рано или поздно так и будет сделано), но как всегда надо быстро, а в написать cni плагин еще уметь надо
в общем, нельзя exec просто курлом, сервер там просит SPDY/3.1 upgrade, и курл в это не умеет (или я не знаю как заставить)

Sergey
14.02.2018
17:04:59
мне кажется они там чет по твоей теме обсуждают

Anton
14.02.2018
17:06:57
да, я видел этот трэд, как я понял, вывод у них тот же

Alexey B
14.02.2018
17:25:17
Как настроить в кластере
nginx resolver?

Google

Alexey B
14.02.2018
17:25:56
выставляю ip dns service-а но ничего не получается
отдает 502 или 500

Fike
14.02.2018
17:26:43
502 и 500 ничего не говорят о неисправности DNS. Пробовали дебаг-лог включать?

Alexey B
14.02.2018
17:31:25
логи говорят
>[error] 26#26: *1 test could not be resolved (3: Host not found)
а в конфиге так:
location / {
proxy_pass http://test:80;
}

Evgeny
14.02.2018
17:38:52
Всем привет! Вопрос, кажется, довольно нубский, но тем не менее:
Имеется GKE, в нём через Helm установлен coucourse. Всё это дело дичайше спамит в логи. Не могу разобраться, как настроить нужную переменную окружения(`CONCOURSE_GARDEN_LOG_LEVEL`). Всё что нашел по теме — такого же страждущего: https://github.com/kubernetes/charts/issues/3414 Что делать?

Vitaliy
14.02.2018
17:45:09
kctl get deployment, ktcl edit deployment, env:, либо в чарте хелма, в контейнере добавить env секцию с твоими параметрами

Andrey
14.02.2018
18:12:10
Вопрос. Что произойдет с сервисами в кластере, если пропадёт control plane? Они по прежнему будут работать?
Описано в доках где нибудь проведение системы на этот случай?

Mikhail
14.02.2018
18:15:30
Ну относительно
Ip не обновятся
Поды не перешедулятся

Andrey
14.02.2018
18:16:05
А DNS?
Kubedns будет работать?

Mikhail
14.02.2018
18:17:06
Кеш если есть - точно. Не знаю всасывает он в себя записи или нет
Надо смотреть

Andrey
14.02.2018
18:19:11
Спасибо, будем экспериментировать. Хотя доки все равно придется искать, потому как дизайн надо обосновывать

Mikhail
14.02.2018
18:22:50

Andrey
14.02.2018
18:23:46
Есть ответ на SO, но хотелось бы, чтобы это было by design и не поломалась в будущем. https://stackoverflow.com/questions/39172131/what-happens-when-the-kubernetes-master-fails

Google

Andrey
14.02.2018
18:24:30
Днс будет работать, говорят

Mikhail
14.02.2018
18:26:16
Ну там надо смотреть как происходит взаимодействие с апи сервером
Как я понимаю
Что будет когда кеш протухнет

Andrey
14.02.2018
18:39:19
kubedns process watches the Kubernetes master for changes in Services and Endpoints, and maintains in-memory lookup structures to serve DNS requests.
Судя по докам кэш есть в dnsmasq. А kubedns хранит всё
И только мониторит изменения
Ок, значит мастер можно делать не HA
Надо только failover продумать.


Антон
14.02.2018
20:00:48
Привет, кто нибудь сталкивался с проблемой при запуске dashboard
$ kubectl logs -n kube-system kubernetes-dashboard-5bd6f767c7-nztxt -f
2018/02/14 13:23:13 Using in-cluster config to connect to apiserver
2018/02/14 13:23:13 Starting overwatch
2018/02/14 13:23:13 Using service account token for csrf signing
2018/02/14 13:23:13 No request provided. Skipping authorization
2018/02/14 13:23:14 Error while initializing connection to Kubernetes apiserver. This most likely means that the cluster is misconfigured (e.g., it has invalid apiserver certificates or service accounts configuration) or the —apiserver-host param points to a server that does not exist. Reason: Get https://10.96.0.1:443/version: dial tcp 10.96.0.1:443: getsockopt: no route to host
Refer to our FAQ and wiki pages for more information: https://github.com/kubernetes/dashboard/wiki/FAQ
Проверял еще
$ kubectl exec -ti busybox -- nslookup kubernetes.default
Server: 10.96.0.10
Address 1: 10.96.0.10
nslookup: can't resolve 'kubernetes.default'
command terminated with exit code 1
Проблема с настройкой сети видимо какая то...


Anton
15.02.2018
06:36:19
dns например нету

Антон
15.02.2018
07:40:31
dns например нету
да нет там вроде все в порядке поды запущены ошибок в логах нет
kube-system kube-dns-6f4fd4bdf-trpdh 3/3 Running 0 39m
Я пока решил поменять сеть на weave с flannel

Andrey
15.02.2018
08:33:12
Ребят, вопрос наверное до жути глупый, но как я могу вытащить dashboard куба наружу? Чтоб не ходить на локалхост через ssh туннель