Maksim
Ингрес это описание, что веб сервер должен написать в конфиг что бы запроксировать данные
Maksim
тут есть вопрос, а что он будет писеть сли нет ни path ни name ни протокола
Maksim
как ему работь то?
Maksim
Ванг-то умерла(
Maksim
Ну и читай логи)
Роман
Дефолтный контроллер из куберовского репозитория просто заваливает логи 404 ответами со всей земли. Вообще не понимаю, что это.
Роман
Объясните, пожалуйста. Вот такой лог: https://pastebin.com/zviE3KL3 Как только деплою ингресс контроллер - сразу же непрерывно начинает сыпаться.
No
У меня еще один глупый вопрос. root@k8s-cluster-init-osv:~/kubernetes-anywhere-0.1.0# ./kubectl describe ing my-nginx Name: my-nginx Namespace: default Address: 172.1.67.1 Default backend: default-http-backend:80 (172.1.77.2:8080) Rules: Host Path Backends ---- ---- -------- * / my-nginx:80 (<none>) Annotations: No events. Я предполагал, что Address будет доступен извне, а это внутренняя сеть pod-ов.
No
Объясните мне тупице на пальцах, как заэкспоузить сервис через ингрес контроллер
No
🐥
Lev
например... Apache-HttpClient/UNAVAILABLE (java 1.4)
Роман
Объясните мне тупице на пальцах, как заэкспоузить сервис через ингрес контроллер
1. Создаёшь деплой дефолт-бэкенд (я просто задеплоил дефолтный альпайновский nginx). 2. Делаешь ему сервис 3. https://github.com/kubernetes/ingress/tree/master/examples/deployment/nginx/kubeadm - ставишь (если у тебя kubeadm и версия 1.6+). Разберись там с неёмспейсами. 4. Создаёшь деплой приложения 5. Создаёшь сервис приложения 6. Создаёшь правила Ingress для доступа к этим сервисам.
Роман
например... Apache-HttpClient/UNAVAILABLE (java 1.4)
Так оно. Только откуда? По триста запросов в секунду на тестовом сервере, как только экспозится приложение вовне.
Andrey
java 1.4, ммм
Lev
андроид, наверное
Роман
андроид, наверное
Может на этом серваке когда-то сервер был и сейчас телефоны коннектятся к нему. Сейчас поснифаю...
No
Значит мне его нужно наружу прокинуть?
Lev
Роман, это дело)
Роман
Действительно. Так и есть.
Magistr
я правильно понимаю что ходить между контейнерами по их именам напрямую в к8с + фланнел неполучится ?
Magistr
ну мне не для временных
G72K
(например к JVM подключиться профайлером)
Magistr
просто тут нетфликс эврику и зуул взгородили для регистрации сервисов, и оно красиво так ломаеться потому что кубер
G72K
оно использует имя контайнера как адрес?
G72K
просто поидее все поды получают DNS имена (или можно их заставить получать)
Magistr
да имя контейнера
Magistr
а как опция для получения днс имени зовется ?
G72K
https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/
G72K
pod-ip-address.my-namespace.pod.cluster.local - это автоматически
G72K
я не знаком с эврикой и зуул, но в кубе встреный дискавери на основе ДНС, может этого хватит?
Magistr
ну вот да мне бы его хватило, а вот разрабы потащили другое дискавери и вот и словили
Magistr
а как посмотреть список всех хостов зарегистрированных в днсе ?
G72K
оно каждый раз заного ходит в etcd при лукапах
G72K
т..е если есть в kubectl get endpoints , то будет в днс
Magistr
так в эндпоинтах у меня есть имена, но они не совпадают с именами контейнеров
G72K
у вас контейнеры часть сервисов?
G72K
дложно быть podName.serviceName.namespace.svc.cluster.local (или как то так, в той доке указано)
Magistr
да
Magistr
а хм
Anonymous
@MoneyMafia - канал где бесплатно публикуются различные способы и схемы заработка, которые продаются на тематических форумах за бешенные деньги.
Etki
есть ли хоть один телеграм-аккаунт, который не горит желанием подарить мне счастье за мизерную мзду в виде подписки
Anonymous
есть. я. будь счастлив просто так.
Denis
Нужна помощь, есть три мастера на них установлен flannel как systemd unit, есть три воркера на них через daemonset установлен canal (что как я понял calico - политики сети + тот же flannel). На всех шести хостах интерфейс flannel.1 находится в одной подсети, есть пинги на эти адреса между мастерами, между воркерами, и от воркеров к мастерам. Но от мастеров к воркерам пинги не ходят. Это calico где то рубит? Или в чем может быть дело?
Denis
iptables-save ?
на мастерах пусто
Denis
на воркерах куча всего
Denis
На что смотреть?
G72K
на taints
G72K
похоже на daemonset не распространился на мастер ноды
G72K
они обычно помечены, чтобы туда поды не лазили
Denis
да мастерах не стоит ни докер ни kubelet
G72K
хмммм, а чего хотели то тогда?:)
Denis
я думал что поставить flannel на мастеры достаточно
Denis
в конце концов есть разве разница как он запущен?
Denis
я не настоящий сварщик, и только учусь. так что могу задавать глупые вопросы
G72K
конечно, ему ж надо знать где что, а значит все flannel должны смотреть в одно и то же хранилище. в случае canal daemonset хранилище это apiserver , а обычный flannel по умолчанию ходит в etcd напрямую
Denis
но ведь и там и там задается prefix
Denis
разве они не в одно место в итоге в etcd попадают?
Denis
apiserver сам ничего не хранит же
G72K
в итоге да, но в разных форматах же. через apiserver в etcd приходят config maps (кажется)
G72K
вобщем, самый простой вариант - запускайте kubelet на мастерах, им же можете и apiservers запускать и controller-manager
Denis
вот как раз еще хотел спросить что вижу везде два подхода к созданию кластеров. 1. На все раскатать kubelet + на мастера запретить шедулинг, и поверх раскатать все остальные компоненты 2. Все ставить отдельно через systemd (например) и kubelet только на воркеры
Denis
видимо первый подход более однородный получается
Denis
в итоге да, но в разных форматах же. через apiserver в etcd приходят config maps (кажется)
а как в таком случае объяснить, что мастера пингуются с воркеров, но не наоборот?
G72K
ну яндекс тоже пингуется с воркеров наверное?
Denis
да но мастеры то пингуются по адресу который на интерфейсе flannel
Denis
или я чего то не понимаю, что очень может быть
G72K
если flannel виден всем и отовсюду, то он у вас везде напрямую в etcd ходит, значит flannel ок
Denis
вот, я и думаю может это связано с тем что calico не знает промастеры?
Denis
и входящие пакеты с них режет?
G72K
остается calico , смотрите его доку
Denis
остается calico , смотрите его доку
спасибо, поищу что нибудь, если не получится поставлю kubelet на мастеры
G72K
вот как раз еще хотел спросить что вижу везде два подхода к созданию кластеров. 1. На все раскатать kubelet + на мастера запретить шедулинг, и поверх раскатать все остальные компоненты 2. Все ставить отдельно через systemd (например) и kubelet только на воркеры
скажу за себя: пользуюсь kube-aws ( и помогаю развивать), там первый подход. хочется его еще расширить и совсем ничего вне куба не запускать, но пока не все задуманное сделано