@kubernetes_ru

Страница 200 из 958
Pavel
05.07.2017
13:04:35
ну тогда вот https://github.com/coreos/docs/blob/master/os/collecting-crash-logs.md

Dmitry
05.07.2017
13:07:40
cпасибо, не знал

но там пусто(

походу железо не поддерживает эту фичу

Google
Dmitry
05.07.2017
13:08:24
Since this mechanism is just an abstraction, it depends on hardware support to actually persist the data across reboots. If the hardware support is absent, the pstore will remain empty. хотя On AMD64 machines, pstore is typically backed by the ACPI error record serialization table (ERST).

должно бы быть

нашел на одной ноде

https://pastebin.com/HURRr1tR

Айбелив
05.07.2017
13:12:50
А подскажите плз, если в кластере нода теряет сеть или перезагружается, как заставить поды переезжать на другие ноды по умолчанию?

что-нибудь почитать или носом тыкнуть

Paul
05.07.2017
13:14:32
Pavel
05.07.2017
13:14:49
не ну малоль для чего :)

для бд конечно другие вещи нужны

Khramov
05.07.2017
13:16:02
Ребят, а как можно запретить подам доступ к внутренней сети? А то у нас такая проблема, что из пода можно стучаться напрямую к etcd по ip. etcd настроен на другой сети. Нам нужно либо как-то засекьюрить etcd, либо сделать так, чтобы из подов нельзя было до туда достучаться. Подскажте возможные решения

Khramov
05.07.2017
13:21:18
У нас etcd кластер поднят на 3 нодах, с сертификатами мучаемся уже 3 день, с ними, почемуто, не поднимается canal нормально. dns под постоянно ребутается.

Привет. Ребят, помогите решить проблему, пытаюсь поставить кластер etcd с сертификатами на куб, в итоге все встает, но когда ставлю Network Policy - canal, dns не поднимается, пишет что RUNNING 2/3 . В контейнере kube-dns пишет что не может подключиться к kube-api - https://gist.github.com/25b9e6f058caebf35e0ba5b37c7f9e71 Куб 1.6.6, etcd 3.2.1, поднят кластер из 3 машин, без etcd сертификатов все работает

Google
Altai
05.07.2017
13:22:09
Вот, собственно, тоже, вечно 1/2, 2/3, изредка ready проскакивал.

Тоже три ноды.

Vitaliy
05.07.2017
13:22:40
у нас canal нет, но как я помню в calico можно kube-apiserver как хранилище вместо etcd использовать

Alexander
05.07.2017
13:24:03
товарищи, какие best practices есть для деплоя подов с сервисами, которые будут path/domain-based роутинг выполнять в неймспейсе? вот есть перепиленный nginx, хотелось бы красиво через configmap определить статические конфиг. параметры, и возможно дописывать параметры для индивидуальных vhost'ов. это через annotations делается, если есть такие параметры в конфиг. темплейте? то есть это надо вообще все параметры темплейтезировать? если поставить кратко вопрос - каким образом kind ingress подставляет секции server{} и выносит инклуды с upstream{}'ами?

Dmitry
05.07.2017
13:36:21
господа, кто нибудь разбирается в coredump логах ядра? я так понял тут https://pastebin.com/raw/HURRr1tR только второй кусок дампа. к сожалению первого почему то в pstore нет. по этому куску не понять где произошла ошибка?

сделал это на каждой ноде: mount -o remount,kmsg_bytes=100000 /sys/fs/pstore возможно в следующий раз сохранится больше данных

Khramov
05.07.2017
13:52:29
у нас canal нет, но как я помню в calico можно kube-apiserver как хранилище вместо etcd использовать
А у вас мультимастер или нет? По идее же kube-apiserver на одной ноде запущен, и если она упадет, то остальные не смогут ничего подтянуть. Для этого у нас кластер etcd, если упадет 1 мастер, то все будет продолжать работать. У нас мультимастер, 3 мастера.

Altai
05.07.2017
13:58:57
@nailgunster, https://hastebin.com/hahabareja

Собственно, dashboard тоже в CrashLoopBackOff, и, как понимаю, все беды из-за kube-dns.

Alexander
05.07.2017
14:05:41
Я решал эту задачу через traefik
не важно, что будет. haproxy/linkerd/..., выбираться будет kubernetes.io/ingress.class как я понял. я о менеджменте самого ингресс-сервиса.

https://github.com/kubernetes/ingress/blob/master/controllers/nginx/rootfs/etc/nginx/template/nginx.tmpl

Altai
05.07.2017
14:10:30
Добавил в iptables -A INPUT -i flannel.1 -j ACCEPT -A INPUT -i cni0 -j ACCEPT kube-dns починился. :)

Khramov
05.07.2017
14:15:53
А что за интерфейс cni0?

Vitaliy
05.07.2017
14:16:29
А у вас мультимастер или нет? По идее же kube-apiserver на одной ноде запущен, и если она упадет, то остальные не смогут ничего подтянуть. Для этого у нас кластер etcd, если упадет 1 мастер, то все будет продолжать работать. У нас мультимастер, 3 мастера.
Я немного запутался во всех этих мастерах. В идеальном варианте доступ к etcd должен быть только у apiserver. Наверно поэтому flannel, canal, calico умеет работать без etcd (сам не проверял)

Altai
05.07.2017
14:16:44
@mastanggt Моя нуб, моя не знает, какой-то там container network interface, судя по всему. Просто посмотрел, какие есть интерфейсы и добавил те, что похожи на нужные. :)

Теперь пытаюсь заставить dashboard работать. Там ведь достаточно kubectl create -f https://git.io/kube-dashboard или всё-таки что-то для rbac нужно прописывать дополнительно?

Google
Maksim
05.07.2017
14:24:29
это смотря где)

Denis
05.07.2017
14:24:43
flannel в 0.9 вроде начучилась слать данные в аписервер а не в етсд
Да --kube-subnet-mgr: Contact the Kubernetes API for subnet assignment instead of etcd.

https://github.com/coreos/flannel/blob/master/Documentation/configuration.md

Khramov
05.07.2017
14:24:58
image: quay.io/coreos/flannel:v0.7.0 Вот наш

Maksim
05.07.2017
14:25:45
хм, значит туплю с версиями уменя вообще акя то древняя стоит..

у меня 0.5.3 значит фичу я видел в апдейте дл 0.6

Altai
05.07.2017
14:39:16
Не работает dashboard, просто /ui отваливается по таймауту. Следую https://github.com/kubernetes/dashboard/blob/master/docs/user-guide/troubleshooting.md Там предлагают проверить, проходит ли авторизация вообще, но у меня в принципе kubectl exec test-701078429-s5kca -- curl -k https://10.0.0.1 не завершается. Из-за чего такое вообще может происходить? Адрес подставляю нужный, из get services.

Altai
05.07.2017
15:06:53
@notxcain, имеется в виду подключиться к разным docker-flannel-ds-... и попинговать адреса из flennel.1?

Попинговал, всё ходит. :( Разворачивал просто kubeadm, без прибамбасов.

Ivan
05.07.2017
15:08:53
попробуй в веб уи указать явно апи сервер: - —apiserver-host=

Denis
05.07.2017
15:08:56
ну заходишь на ноду, неважно мастер или воркер, и пингуешь другие по адресу из flannel.1

Altai
05.07.2017
15:11:17


Все пингуют всех. :(

Адрес, что у пода kube-apiserver-... на flannel.1? Пробовал. Из kube-apiserver адрес dashboard во flannel.1, кстати, не пингуется.

попробуй в веб уи указать явно апи сервер: - —apiserver-host=

В общем, между людыми созданными не kubeadm подами связи не было с flannel. :( Пока на weave в итоге. Может кто-нибудь из пользователей kubeadm на досуге опишет список дополнительных манипуляций, при помощи которых удавалось завести flannel?

Paul
05.07.2017
17:49:13
В общем, между людыми созданными не kubeadm подами связи не было с flannel. :( Пока на weave в итоге. Может кто-нибудь из пользователей kubeadm на досуге опишет список дополнительных манипуляций, при помощи которых удавалось завести flannel?
Сети в кубере вообще работают очень своеобразно. Например, я не смог запустить weave через kargo - причём сначала он завёлся, а при попытке его перенастроить мгновенно умер

Andrey
05.07.2017
19:47:47
да, ты прав

Google
Let Eat
05.07.2017
19:54:24
ноды в статус NotReady переходит?

Айбелив
05.07.2017
19:54:44
daemonSet'ы в NodeLost уходили, а обычные подки в Unknown

Admin
ERROR: S client not available

Айбелив
05.07.2017
19:56:21
Let Eat
05.07.2017
19:56:37
https://kubernetes.io/docs/concepts/architecture/nodes/ pod-eviction-timeout

Айбелив
05.07.2017
19:56:48
60s выставлял

есть одно небольшое но. Я не знаю как бы себя вёл кубер на стандартной поставке и сборке через kubeadm

у меня кластер собран через kubeadm и из него собрал HA на трёх мастерах

флажки компонентам выставлял по HA-докам кубера, но не уверен что все поставил и правильно ли

Let Eat
05.07.2017
19:59:41
вот еще: https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#per-pod-configurable-eviction-behavior-when-there-are-node-problems-alpha-feature

ну и вот еще по первой ссылке: In versions of Kubernetes prior to 1.5, the node controller would force delete these unreachable pods from the apiserver. However, in 1.5 and higher, the node controller does not force delete pods until it is confirmed that they have stopped running in the cluster. One can see these pods which may be running on an unreachable node as being in the “Terminating” or “Unknown” states. In cases where Kubernetes cannot deduce from the underlying infrastructure if a node has permanently left a cluster, the cluster administrator may need to delete the node object by hand. Deleting the node object from Kubernetes causes all the Pod objects running on it to be deleted from the apiserver, freeing up their names.

у нас куб в AWS , оно кажется умеет к нему ходить узнавать жива ли нода. если на голом железе, то может и некуда идти и только ждать админа, чтобы удалил ноду руками?

Pavel
05.07.2017
20:04:53
Походу конфиги всё также надо править...

Pavel
05.07.2017
20:05:29
Вручную, всмысое

Айбелив
05.07.2017
20:05:44
да нафиг тогда кубер?)

ладн, завтра поковыряюсь на эту тему. Спасибо, @rossmohax

Google
Pavel
05.07.2017
20:07:43
Пока, аутринсталл у меня чотко работал, кстати, только от клаудеры

Ну щоб кластер из коробки и всё работает

Let Eat
05.07.2017
20:15:40
похоже про удаление руками это только к StatefulSet относится и только если из cloudprovider нельзя узнать состояние ноды , остальные контроллеры запускают новые поды взамен выпавших, но выпавшие так и висят в списках, пока ноду не удалят-таки руками

вобщем разумно :)

Altai
05.07.2017
21:05:47
Кстати, про удаления

Правильно пониаю, что kubernetes за собой старые докер-образы подчищает? Или всё-таки нужно свой "сборщик мусора" прикручивать?

Ivan
05.07.2017
21:09:36
надо прикручивать

Let Eat
05.07.2017
21:12:43
надо прикручивать
здесь врут? https://kubernetes.io/docs/concepts/cluster-administration/kubelet-garbage-collection/

у нас чистит вроде, надо подождать пока диск забьется только :)

Ivan
05.07.2017
21:15:20
что чистит?

Let Eat
05.07.2017
21:15:38
образы

Ivan
05.07.2017
21:16:29
какие?

Let Eat
05.07.2017
21:16:31
image-gc-low-threshold, the percent of disk usage to which image garbage collection attempts to free. Default is 80%

те что в docker image отбражаются на нодах

Ivan
05.07.2017
21:18:03
есть образы, есть слои... есть образы используемые, есть нет. есть залитые руками, есть по деплою...

я не знаю, что конкретно чистит эта хрень, но точно далеко не всё

Страница 200 из 958