
Alexey
07.08.2018
13:42:44
ааа блин, завел трэфик с инфо, он только регает что поднялся бэкенд, без запросов (
за подправлю
Вот пишет что бэк есть
time="2018-08-07T13:44:04Z" level=debug msg="Creating server kubernetes-dashboard-6948bdb78-mns8n at https://10.32.0.6:8443 with weight 1"

Google


Alexey
07.08.2018
13:48:12
time="2018-08-07T13:45:56Z" level=debug msg="vulcand/oxy/forward/http: Round trip: https://10.32.0.6:8443, code: 500, Length: 21, duration: 1.541266ms"
time="2018-08-07T13:45:56Z" level=debug msg="vulcand/oxy/forward/http: completed ServeHttp on request" Request="{\"Method\":\"GET\",\"URL\":{\"Scheme\":\"https\",\"Opaque\":\"\",\"User\":null,\"Host\":\"10.32.0.6:8443\",\"Path\":\"\",\"RawPath\":\"\",\"ForceQuery\":false,\"RawQuery\":\"\",\"Fragment\":\"\"},\"Proto\":\"HTTP/1.1\",\"ProtoMajor\":1,\"ProtoMinor\":1,\"Header\":{\"Accept\":[\"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8\"],\"Accept-Encoding\":[\"gzip, deflate\"],\"Accept-Language\":[\"ru-RU,ru;q=0.9,en-US;q=0.8,en;q=0.7,es;q=0.6,fr;q=0.5\"],\"Cache-Control\":[\"max-age=0\"],\"Connection\":[\"keep-alive\"],\"Dnt\":[\"1\"],\"Upgrade-Insecure-Requests\":[\"1\"],\"User-Agent\":[\"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36\"]},\"ContentLength\":0,\"TransferEncoding\":null,\"Host\":\"10.0.18.69\",\"Form\":null,\"PostForm\":null,\"MultipartForm\":null,\"Trailer\":null,\"RemoteAddr\":\"10.41.0.0:55394\",\"RequestURI\":\"/k8s\",\"TLS\":null}"


Айбелив
07.08.2018
13:51:33
посмотри в эту сторону
https://github.com/containous/traefik/issues/1376
Там с трафиком своя какая-то магия, чёрная

Alexey
07.08.2018
13:52:21
Через проксю кубера работает. Она без SSL отдает.

Айбелив
07.08.2018
13:54:08
трафик просто юзает свои кастомные аннотации, что усложняет жизнь тех, кто не пользовался трафиком

Alexey
07.08.2018
13:56:33

Айбелив
07.08.2018
13:57:40
что привело тебя к трафику? Почему не nginx или haproxy?

Alexey
07.08.2018
13:58:58

Roman
07.08.2018
14:00:18

Alexey
07.08.2018
14:00:28
haproxy - как то уж слишком в лоб, haproxy будет на входе, для другого. Все таки трэфик l7, у него много вкусностей есть, те же реврайты

Айбелив
07.08.2018
14:02:43
ну nginx\haproxy (C) по определению шустрее, чем traefik (Go)

Alexey
07.08.2018
14:03:02

Google

Айбелив
07.08.2018
14:03:31
как минимум год назад у го точно были проблемы со скоростью шифрования\терминации

Vadim
07.08.2018
14:04:10
>haproxy будет на входе
тогда зачем внутри траэфик внутри еще?

Alexey
07.08.2018
14:04:12
Или nginx - не суть. Ребят не сбивайте, сейчас ковыряюсь с трэфиком, давайте по теме

Stanislav
07.08.2018
14:38:41
Коллеги, кто подскажет!
Вот есть master и 3 ноды, на всех развернут kube-proxy который отвечает на всех нодах. Вопрос в том, почему если вырубается одна из нод, остальные тоже перестают отвечать по порту, хотя он слушается и доступен?

Sergey
07.08.2018
14:39:46

Stanislav
07.08.2018
14:40:28
если без хоста
ааа, кажись понял, дело наверно всетаки в ingress

mio
07.08.2018
14:44:06
Коллеги, направьте в нужную сторону траблшутить.
После накатки нового кластера не стартуют некоторые поды
kube-system po/kube-dns-7bd4d5fbb6-qsrwl 0/3 ContainerCreating 0 5h
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal SandboxChanged 6m (x15676 over 5h) kubelet, us-srv-06 Pod sandbox changed, it will be killed and re-created.
Warning FailedCreatePodSandBox 1m (x15816 over 5h) kubelet, us-srv-06 Failed create pod sandbox: rpc error: code = Unknown desc = NetworkPlugin cni failed to set up pod "kube-dns-7bd4d5fbb6-qsrwl_kube-system" network: Unable to retreive ReadyFlag from Backend: resource does not exist: ReadyFlagKey()

Grigory
07.08.2018
14:46:36

mio
07.08.2018
14:47:36
видны три ноды, все ready
ROLES master,node

Andrey
07.08.2018
14:48:05
гугл говорит неправильно
https://github.com/kubernetes/kubernetes/issues/57280

mio
07.08.2018
14:50:50
куда еще можно посмотреть в кубе чтобы увидеть в чем проблема?

Oleg
07.08.2018
14:51:41
Отхватил сегодня интересный баг из-за systemd-resolv. Кубелет прокидывает неправильный ресолв.конф и поды не видят внешний мир

Google

Anton
07.08.2018
15:07:21

Oleg
07.08.2018
15:10:03
Но на 18.04 с кубспреем много проблем

kvaps
07.08.2018
15:10:47
кстати, на счет bionic я нашел решение с systemd-resolved

Oleg
07.08.2018
15:10:56
То докер нужной версии, то фланель глючит, то днс. Но в итоге все ок

Anton
07.08.2018
15:11:17

Oleg
07.08.2018
15:11:39
Докер 18.06
Что/за кри плагин? Cni может?

Fike
07.08.2018
15:13:47

kvaps
07.08.2018
15:13:52
apt-get -y install resolvconf
systemctl stop systemd-resloved
systemctl mask systemd-resloved
ln -sf ../run/resolvconf/resolv.conf /etc/resolv.conf

Anton
07.08.2018
15:14:13

Oleg
07.08.2018
15:14:27

kvaps
07.08.2018
15:14:58
у системды searchdomain не работает, во всяком случае у меня из коробки не заработал

Oleg
07.08.2018
15:15:15

kvaps
07.08.2018
15:15:38
но у меня ltsp, и довольно специфическая конфигурация

Oleg
07.08.2018
15:16:14
я просто указал --resolv-conf=/run/systemd/resolve/resolv.conf в kubelet.env

kvaps
07.08.2018
15:16:47
все равно я плюнул на эту затею, bionic в прод пихать, после апдейта на оный, у нас ноды стали произвольно ребутаться, при этом в логах вообще ничего

Google

Oleg
07.08.2018
15:16:55
минут тридцать бошку ломал почему серт менеджер ишьера не регает
а как нормально решить вопрос с вольюмами для подов с ReadWriteMany?
чтобы по-человечески и без ceph?

kvaps
07.08.2018
15:18:41
?
cat /etc/resolv.conf
nameserver 10.9.8.6
search corp.example.orgвот опцию search systemd-resolved не прописывает

Oleg
07.08.2018
15:19:08
а в /run/systemd/resolve/resolv.conf?

kvaps
07.08.2018
15:19:34
так /etc/resolv.conf - это симлинк на него

Oleg
07.08.2018
15:19:47
нет
разный контент
/etc/resolv.conf: nameserver 127.0.0.53

kvaps
07.08.2018
15:20:34
не знаю, должен быть симлинком, отсюда и все проблемы значит у вас

Oleg
07.08.2018
15:20:48
/run/systemd/resolve/resolv.conf: nameserver 192.168.1.1
там даже ишью есть с таким решением

kvaps
07.08.2018
15:21:16
а что
dpkg-query -S /etc/resolv.confпоказывает?

Oleg
07.08.2018
15:21:35

kvaps
07.08.2018
15:21:53
хаха, это уже другой вопрос :)

Oleg
07.08.2018
15:22:04
не показывает
dpkg-query: не найден путь, подходящий под шаблон /etc/resolv.conf

Сергей
07.08.2018
15:22:26
всем привет. собираюсь разворачивать кубернетис и встал вопрос выбора дистрибутива. сейчас все классические сервера развернуты на centos, но вроде как неплохим решением было бы поставить прямо container linux и в путь. что посоветуете? использовать то, чем уже пользовался и не греть мозги или таки стоит попробовать container linux?

Banschikov
07.08.2018
15:22:52
Всем привет! А кто нибуть юзает fedora atomic?

Google

kvaps
07.08.2018
15:24:05

Oleg
07.08.2018
15:24:53
хаха, это уже другой вопрос :)
я смотрел разные решения, которые не требуют отдельного диска. Выходит или zfs или rook (привет от ceph) или openebs. Может что-то еще есть?

Vadim
07.08.2018
15:25:24

Banschikov
07.08.2018
15:26:26
я юзаю
А можно какую нибуть мне доку нормальную посоветовать по деплою k8s на эту систему или хоть какое-то актуальное чтиво?

kvaps
07.08.2018
15:26:40

Oleg
07.08.2018
15:27:15

Vadim
07.08.2018
15:27:19

Алексей
07.08.2018
15:28:38

kvaps
07.08.2018
15:28:44
а зачем вам ReadWriteMany?

Oleg
07.08.2018
15:30:09

kvaps
07.08.2018
15:31:18
А он разве не с S3 напрямую работает?
я тут статейку писал, про отказоустойчивый NFS-сервер, по моему отличное решение, если что
https://habr.com/post/417473/
с тем лишь отличием, что сам NFS-сервер деплоится кубером как контейнер, а drbd-девайс создается через Linstor

Vadim
07.08.2018
15:34:05
с тем лишь отличием что NFS не проверяет что он вообще записал, так что я не понял к чему относилось слово "отказоустойчивый"