@kubernetes_ru

Страница 740 из 958
Alexey
07.08.2018
13:42:44
ааа блин, завел трэфик с инфо, он только регает что поднялся бэкенд, без запросов (

за подправлю

Вот пишет что бэк есть

time="2018-08-07T13:44:04Z" level=debug msg="Creating server kubernetes-dashboard-6948bdb78-mns8n at https://10.32.0.6:8443 with weight 1"

Google
Alexey
07.08.2018
13:48:12
time="2018-08-07T13:45:56Z" level=debug msg="vulcand/oxy/forward/http: Round trip: https://10.32.0.6:8443, code: 500, Length: 21, duration: 1.541266ms" time="2018-08-07T13:45:56Z" level=debug msg="vulcand/oxy/forward/http: completed ServeHttp on request" Request="{\"Method\":\"GET\",\"URL\":{\"Scheme\":\"https\",\"Opaque\":\"\",\"User\":null,\"Host\":\"10.32.0.6:8443\",\"Path\":\"\",\"RawPath\":\"\",\"ForceQuery\":false,\"RawQuery\":\"\",\"Fragment\":\"\"},\"Proto\":\"HTTP/1.1\",\"ProtoMajor\":1,\"ProtoMinor\":1,\"Header\":{\"Accept\":[\"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8\"],\"Accept-Encoding\":[\"gzip, deflate\"],\"Accept-Language\":[\"ru-RU,ru;q=0.9,en-US;q=0.8,en;q=0.7,es;q=0.6,fr;q=0.5\"],\"Cache-Control\":[\"max-age=0\"],\"Connection\":[\"keep-alive\"],\"Dnt\":[\"1\"],\"Upgrade-Insecure-Requests\":[\"1\"],\"User-Agent\":[\"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36\"]},\"ContentLength\":0,\"TransferEncoding\":null,\"Host\":\"10.0.18.69\",\"Form\":null,\"PostForm\":null,\"MultipartForm\":null,\"Trailer\":null,\"RemoteAddr\":\"10.41.0.0:55394\",\"RequestURI\":\"/k8s\",\"TLS\":null}"

ssl-passthrough стоит на манифесте?
нет, по гуглю что это

Айбелив
07.08.2018
13:51:33
посмотри в эту сторону https://github.com/containous/traefik/issues/1376 Там с трафиком своя какая-то магия, чёрная

Alexey
07.08.2018
13:52:21
Через проксю кубера работает. Она без SSL отдает.

Айбелив
07.08.2018
13:54:08
трафик просто юзает свои кастомные аннотации, что усложняет жизнь тех, кто не пользовался трафиком

Alexey
07.08.2018
13:56:33
трафик просто юзает свои кастомные аннотации, что усложняет жизнь тех, кто не пользовался трафиком
дашборд кубера хочу завести, лень с SSL заморачиватся, лаба пока что. Вот уперлась как зараза и все. А без SSL сама дашборда не стартует (

Айбелив
07.08.2018
13:57:40
что привело тебя к трафику? Почему не nginx или haproxy?

Alexey
07.08.2018
13:58:58
что привело тебя к трафику? Почему не nginx или haproxy?
Пробую, разбираюсь плюс nginx перечитывает конфиг через HUP, что не так уж хорошо при куче соединений.

Roman
07.08.2018
14:00:18
Пробую, разбираюсь плюс nginx перечитывает конфиг через HUP, что не так уж хорошо при куче соединений.
у nginx все очень аккуратно сделано. Воркеры старые отрабатывают коннекты со старым конфигом, новые уже spawn'ятся с новым

Alexey
07.08.2018
14:00:28
haproxy - как то уж слишком в лоб, haproxy будет на входе, для другого. Все таки трэфик l7, у него много вкусностей есть, те же реврайты

у nginx все очень аккуратно сделано. Воркеры старые отрабатывают коннекты со старым конфигом, новые уже spawn'ятся с новым
nginx - хорош, я не в коем случае не против него, просто нужно щупать новые инструменты.

Айбелив
07.08.2018
14:02:43
ну nginx\haproxy (C) по определению шустрее, чем traefik (Go)

Alexey
07.08.2018
14:03:02
ну nginx\haproxy (C) по определению шустрее, чем traefik (Go)
не нужно доказывать мне очевидного, там разница копеешная.

Google
Айбелив
07.08.2018
14:03:31
как минимум год назад у го точно были проблемы со скоростью шифрования\терминации

Vadim
07.08.2018
14:04:10
>haproxy будет на входе тогда зачем внутри траэфик внутри еще?

Alexey
07.08.2018
14:04:12
как минимум год назад у го точно были проблемы со скоростью шифрования\терминации
у нас не хайлоад. Ребят просто трэфик и все тут, щупаю его, ковыряю, проект интересный. Хочу на нем завестись

>haproxy будет на входе тогда зачем внутри траэфик внутри еще?
на haproxy терминировать SSL, сертификаты и т.д. Там будет жить паблик, все остальное внутри.

Или nginx - не суть. Ребят не сбивайте, сейчас ковыряюсь с трэфиком, давайте по теме

Stanislav
07.08.2018
14:38:41
Коллеги, кто подскажет!

Вот есть master и 3 ноды, на всех развернут kube-proxy который отвечает на всех нодах. Вопрос в том, почему если вырубается одна из нод, остальные тоже перестают отвечать по порту, хотя он слушается и доступен?

Stanislav
07.08.2018
14:40:28
любая из трех и один результат?)
Да, по дефолту они все выдают "default backend - 404"

если без хоста

ааа, кажись понял, дело наверно всетаки в ingress

mio
07.08.2018
14:44:06
Коллеги, направьте в нужную сторону траблшутить. После накатки нового кластера не стартуют некоторые поды kube-system po/kube-dns-7bd4d5fbb6-qsrwl 0/3 ContainerCreating 0 5h Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal SandboxChanged 6m (x15676 over 5h) kubelet, us-srv-06 Pod sandbox changed, it will be killed and re-created. Warning FailedCreatePodSandBox 1m (x15816 over 5h) kubelet, us-srv-06 Failed create pod sandbox: rpc error: code = Unknown desc = NetworkPlugin cni failed to set up pod "kube-dns-7bd4d5fbb6-qsrwl_kube-system" network: Unable to retreive ReadyFlag from Backend: resource does not exist: ReadyFlagKey()

mio
07.08.2018
14:47:36
видны три ноды, все ready

ROLES master,node

mio
07.08.2018
14:50:50
куда еще можно посмотреть в кубе чтобы увидеть в чем проблема?

Oleg
07.08.2018
14:51:41
Отхватил сегодня интересный баг из-за systemd-resolv. Кубелет прокидывает неправильный ресолв.конф и поды не видят внешний мир

Google
Oleg
07.08.2018
15:10:03
Но на 18.04 с кубспреем много проблем

kvaps
07.08.2018
15:10:47
кстати, на счет bionic я нашел решение с systemd-resolved

Oleg
07.08.2018
15:10:56
То докер нужной версии, то фланель глючит, то днс. Но в итоге все ок

кстати, на счет bionic я нашел решение с systemd-resolved
Там другой ресолв подсунуть надо

Anton
07.08.2018
15:11:17
Но на 18.04 с кубспреем много проблем
верю, а докер последней версии с интеграцией через cri плагин?

Oleg
07.08.2018
15:11:39
Докер 18.06

Что/за кри плагин? Cni может?

Fike
07.08.2018
15:13:47
kvaps
07.08.2018
15:13:52
apt-get -y install resolvconf systemctl stop systemd-resloved systemctl mask systemd-resloved ln -sf ../run/resolvconf/resolv.conf /etc/resolv.conf

Oleg
07.08.2018
15:14:27
kvaps
07.08.2018
15:14:58
у системды searchdomain не работает, во всяком случае у меня из коробки не заработал

kvaps
07.08.2018
15:15:38
но у меня ltsp, и довольно специфическая конфигурация

Oleg
07.08.2018
15:16:14
я просто указал --resolv-conf=/run/systemd/resolve/resolv.conf в kubelet.env

kvaps
07.08.2018
15:16:47
все равно я плюнул на эту затею, bionic в прод пихать, после апдейта на оный, у нас ноды стали произвольно ребутаться, при этом в логах вообще ничего

Google
Oleg
07.08.2018
15:16:55
минут тридцать бошку ломал почему серт менеджер ишьера не регает

а как нормально решить вопрос с вольюмами для подов с ReadWriteMany?

чтобы по-человечески и без ceph?

kvaps
07.08.2018
15:18:41
?
cat /etc/resolv.conf nameserver 10.9.8.6 search corp.example.orgвот опцию search systemd-resolved не прописывает

Oleg
07.08.2018
15:19:08
а в /run/systemd/resolve/resolv.conf?

kvaps
07.08.2018
15:19:34
так /etc/resolv.conf - это симлинк на него

Oleg
07.08.2018
15:19:47
нет

разный контент

/etc/resolv.conf: nameserver 127.0.0.53

kvaps
07.08.2018
15:20:34
не знаю, должен быть симлинком, отсюда и все проблемы значит у вас

Oleg
07.08.2018
15:20:48
/run/systemd/resolve/resolv.conf: nameserver 192.168.1.1

там даже ишью есть с таким решением

kvaps
07.08.2018
15:21:16
а что dpkg-query -S /etc/resolv.confпоказывает?

Oleg
07.08.2018
15:21:35
kvaps
07.08.2018
15:21:53
хаха, это уже другой вопрос :)

Oleg
07.08.2018
15:22:04
не показывает

dpkg-query: не найден путь, подходящий под шаблон /etc/resolv.conf

Сергей
07.08.2018
15:22:26
всем привет. собираюсь разворачивать кубернетис и встал вопрос выбора дистрибутива. сейчас все классические сервера развернуты на centos, но вроде как неплохим решением было бы поставить прямо container linux и в путь. что посоветуете? использовать то, чем уже пользовался и не греть мозги или таки стоит попробовать container linux?

Banschikov
07.08.2018
15:22:52
Всем привет! А кто нибуть юзает fedora atomic?

Google
kvaps
07.08.2018
15:24:05
а как вы вольюмы делаете для подов?
Для подов у нас сейчас локальный ZFS, но мы рассматриваем возможность перехода на DRBD и Linstor как оркестратор

Oleg
07.08.2018
15:24:53
хаха, это уже другой вопрос :)
я смотрел разные решения, которые не требуют отдельного диска. Выходит или zfs или rook (привет от ceph) или openebs. Может что-то еще есть?

Banschikov
07.08.2018
15:26:26
я юзаю
А можно какую нибуть мне доку нормальную посоветовать по деплою k8s на эту систему или хоть какое-то актуальное чтиво?

kvaps
07.08.2018
15:26:40
Oleg
07.08.2018
15:27:15
Если вам не критично количество IOPS берите Ceph - имхо самый простой вариант
ceph поддерживает rwx, это да. А какие еще есть решения?

Алексей
07.08.2018
15:28:38
kvaps
07.08.2018
15:28:44
а зачем вам ReadWriteMany?

kvaps
07.08.2018
15:31:18
А он разве не с S3 напрямую работает?

я тут статейку писал, про отказоустойчивый NFS-сервер, по моему отличное решение, если что https://habr.com/post/417473/

с тем лишь отличием, что сам NFS-сервер деплоится кубером как контейнер, а drbd-девайс создается через Linstor

Vadim
07.08.2018
15:34:05
с тем лишь отличием что NFS не проверяет что он вообще записал, так что я не понял к чему относилось слово "отказоустойчивый"

Страница 740 из 958