@kubernetes_ru

Страница 191 из 958
Denis
23.06.2017
08:54:32
Вообщем, сейчас понимаю что с сеткой проблемы

думаю снести flannel из systemd и поставить через ds

Evgeniy
23.06.2017
08:55:49
там могут быть ньуансы если скажем приватная сеть не совсем настоящая, роутер например в облаке может часть пакетов дропать

вот у них в доке про AWS написанно Because the instance will be sending and receiving traffic for IPs other than the one assigned by our subnet, we need to disable source/destination checks. https://github.com/coreos/flannel/blob/008a58373bff2a28bd4b8d603d24844733c55e41/Documentation/aws-vpc-backend.md но это актуально далеко не только для AWS

Google
Evgeniy
23.06.2017
09:05:01
flannel вроде бы не шифрует payload пакетов, по этому их могут резать если там, что то не как у всех

у ранчера по умолчанию сеть ipsec в которой это решено

Denis
23.06.2017
09:15:21
там могут быть ньуансы если скажем приватная сеть не совсем настоящая, роутер например в облаке может часть пакетов дропать
у меня для тестов 6 VMware виртуалок, на нашей железке. Думаю нигде ничего не дропается )

Denis
23.06.2017
09:18:54
Ну и походу DNS не работает как надо > kubectl exec -ti busybox -- nslookup kubernetes.default Server: 10.32.0.10 Address 1: 10.32.0.10 nslookup: can't resolve 'kubernetes.default'

No
23.06.2017
09:49:43
Господа, можно глупый вопрос. Вот запустил я nginx-ingress. По примеру отсюда. https://github.com/kubernetes/ingress/tree/master/examples/deployment/nginx

Каким образом мне теперь экспоузить сервисы?

? Мне кажется я чего-то недопонимаю

Роман
23.06.2017
09:54:50
Каким образом мне теперь экспоузить сервисы?
Теперь тебе нужно создать Ingress. Который по пути, или named base будет открывать то, что тебе нужно.

Схема такая: deploy <- service <- ingress

No
23.06.2017
09:55:59
Хорошо, попробую

Насколько я понимаю, это базовый пример, которые есть в доке

Роман
23.06.2017
09:56:34
Да.

Google
Роман
23.06.2017
10:02:01
Меня другой вопрос по ингресс интересует: есть дока по созданию своего ингресс-контроллера?

No
23.06.2017
10:09:54
root@k8s-cluster-init-osv:~/kubernetes-anywhere-0.1.0# ./kubectl get ing my-nginx NAME HOSTS ADDRESS PORTS AGE my-nginx * fe80::a495:fa... 80 59s Блин, а откудв ipv6 то?

Maksim
23.06.2017
10:10:41
Да.
Нет)) Но тут всё довольно просто. Опрашивает API сервер, реалезуем все фичи ингресс (vhost path ssl ) и пишем в api что владем правилом

No
23.06.2017
10:13:07
root@k8s-cluster-init-osv:~/kubernetes-anywhere-0.1.0# cat nginx-ingress/ingress.json apiVersion: extensions/v1beta1 kind: Ingress metadata: name: my-nginx spec: backend: serviceName: my-nginx servicePort: 80

Что я сделал не так ?

Maksim
23.06.2017
10:13:53
а где описание пути?

)

[root@222720-10009 ~]# kubectl get ing e-queue —namespace=e-queue -o yaml apiVersion: extensions/v1beta1 kind: Ingress metadata: annotations: ingress.kubernetes.io/ssl-redirect: "false" creationTimestamp: 2017-02-01T12:44:49Z generation: 8 name: e-queue namespace: e-queue resourceVersion: "13841837" selfLink: /apis/extensions/v1beta1/namespaces/e-queue/ingresses/e-queue uid: 3843667a-e87c-11e6-9e1b-5254000046d4 spec: rules: - host: sbersandbox.ru http: paths: - backend: serviceName: e-queue servicePort: 80 path: /e-queue/ - http: paths: - backend: serviceName: e-queue servicePort: 80 path: /sandbox/e-queue/ - http: paths: - backend: serviceName: e-queue servicePort: 80 path: /e-queue/

No
23.06.2017
10:14:45
Ну в доке про Single Service Ingress именно такой пример, как у меня, без path

Maksim
23.06.2017
10:15:12
Ооо

No
23.06.2017
10:15:32
https://kubernetes.io/docs/concepts/services-networking/ingress/

Maksim
23.06.2017
10:15:34
apiVersion: extensions/v1beta1 kind: Ingress metadata: name: test-ingress spec: rules: - http: paths: - path: /testpath backend: serviceName: test servicePort: 80

Это из доки

No
23.06.2017
10:15:50
Чуть ниже, single service

Но возможно я не прав, сейчас попробую

Maksim
23.06.2017
10:16:25
контроллер

Ингрес это описание, что веб сервер должен написать в конфиг что бы запроксировать данные

тут есть вопрос, а что он будет писеть сли нет ни path ни name ни протокола

как ему работь то?

Google
Maksim
23.06.2017
10:17:19
Ванг-то умерла(

Ну и читай логи)

Роман
23.06.2017
10:24:46
Дефолтный контроллер из куберовского репозитория просто заваливает логи 404 ответами со всей земли. Вообще не понимаю, что это.

Роман
23.06.2017
12:39:36
Объясните, пожалуйста. Вот такой лог: https://pastebin.com/zviE3KL3 Как только деплою ингресс контроллер - сразу же непрерывно начинает сыпаться.

No
23.06.2017
12:46:13
У меня еще один глупый вопрос. root@k8s-cluster-init-osv:~/kubernetes-anywhere-0.1.0# ./kubectl describe ing my-nginx Name: my-nginx Namespace: default Address: 172.1.67.1 Default backend: default-http-backend:80 (172.1.77.2:8080) Rules: Host Path Backends ---- ---- -------- * / my-nginx:80 (<none>) Annotations: No events. Я предполагал, что Address будет доступен извне, а это внутренняя сеть pod-ов.

Объясните мне тупице на пальцах, как заэкспоузить сервис через ингрес контроллер

?

Роман
23.06.2017
12:52:03
Объясните мне тупице на пальцах, как заэкспоузить сервис через ингрес контроллер
1. Создаёшь деплой дефолт-бэкенд (я просто задеплоил дефолтный альпайновский nginx). 2. Делаешь ему сервис 3. https://github.com/kubernetes/ingress/tree/master/examples/deployment/nginx/kubeadm - ставишь (если у тебя kubeadm и версия 1.6+). Разберись там с неёмспейсами. 4. Создаёшь деплой приложения 5. Создаёшь сервис приложения 6. Создаёшь правила Ingress для доступа к этим сервисам.

Роман
23.06.2017
12:53:01
например... Apache-HttpClient/UNAVAILABLE (java 1.4)
Так оно. Только откуда? По триста запросов в секунду на тестовом сервере, как только экспозится приложение вовне.

Andrey
23.06.2017
12:55:23
java 1.4, ммм

Lev
23.06.2017
12:55:46
андроид, наверное

Роман
23.06.2017
12:56:34
андроид, наверное
Может на этом серваке когда-то сервер был и сейчас телефоны коннектятся к нему. Сейчас поснифаю...

No
23.06.2017
12:56:35
Значит мне его нужно наружу прокинуть?

Lev
23.06.2017
12:56:51
Роман, это дело)

Google
Роман
23.06.2017
13:21:23
Действительно. Так и есть.

Magistr
23.06.2017
13:27:53
я правильно понимаю что ходить между контейнерами по их именам напрямую в к8с + фланнел неполучится ?

Let Eat
23.06.2017
13:28:48
Magistr
23.06.2017
13:29:08
ну мне не для временных

Let Eat
23.06.2017
13:29:11
(например к JVM подключиться профайлером)

Magistr
23.06.2017
13:29:40
просто тут нетфликс эврику и зуул взгородили для регистрации сервисов, и оно красиво так ломаеться потому что кубер

Let Eat
23.06.2017
13:30:43
оно использует имя контайнера как адрес?

просто поидее все поды получают DNS имена (или можно их заставить получать)

Admin
ERROR: S client not available

Magistr
23.06.2017
13:34:08
да имя контейнера

а как опция для получения днс имени зовется ?

Let Eat
23.06.2017
13:35:22
https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/

pod-ip-address.my-namespace.pod.cluster.local - это автоматически

я не знаком с эврикой и зуул, но в кубе встреный дискавери на основе ДНС, может этого хватит?

Magistr
23.06.2017
13:39:05
ну вот да мне бы его хватило, а вот разрабы потащили другое дискавери и вот и словили

а как посмотреть список всех хостов зарегистрированных в днсе ?

Let Eat
23.06.2017
14:08:08
оно каждый раз заного ходит в etcd при лукапах

т..е если есть в kubectl get endpoints , то будет в днс

Magistr
23.06.2017
14:10:27
так в эндпоинтах у меня есть имена, но они не совпадают с именами контейнеров

Let Eat
23.06.2017
14:11:49
у вас контейнеры часть сервисов?

Google
Let Eat
23.06.2017
14:12:28
дложно быть podName.serviceName.namespace.svc.cluster.local (или как то так, в той доке указано)

Magistr
23.06.2017
14:12:44
да

а хм

Enanenim
24.06.2017
02:05:43
@MoneyMafia - канал где бесплатно публикуются различные способы и схемы заработка, которые продаются на тематических форумах за бешенные деньги.

Fike
24.06.2017
06:51:47
есть ли хоть один телеграм-аккаунт, который не горит желанием подарить мне счастье за мизерную мзду в виде подписки

Basil_Snowman
24.06.2017
06:58:32
есть. я. будь счастлив просто так.

Denis
24.06.2017
10:50:49
Нужна помощь, есть три мастера на них установлен flannel как systemd unit, есть три воркера на них через daemonset установлен canal (что как я понял calico - политики сети + тот же flannel). На всех шести хостах интерфейс flannel.1 находится в одной подсети, есть пинги на эти адреса между мастерами, между воркерами, и от воркеров к мастерам. Но от мастеров к воркерам пинги не ходят. Это calico где то рубит? Или в чем может быть дело?

Denis
24.06.2017
10:53:33
iptables-save ?
на мастерах пусто

на воркерах куча всего

На что смотреть?

Let Eat
24.06.2017
10:57:00
на taints

похоже на daemonset не распространился на мастер ноды

они обычно помечены, чтобы туда поды не лазили

Denis
24.06.2017
10:58:08
да мастерах не стоит ни докер ни kubelet

Let Eat
24.06.2017
10:58:28
хмммм, а чего хотели то тогда?:)

Denis
24.06.2017
10:58:53
я думал что поставить flannel на мастеры достаточно

в конце концов есть разве разница как он запущен?

я не настоящий сварщик, и только учусь. так что могу задавать глупые вопросы

Let Eat
24.06.2017
11:00:59
конечно, ему ж надо знать где что, а значит все flannel должны смотреть в одно и то же хранилище. в случае canal daemonset хранилище это apiserver , а обычный flannel по умолчанию ходит в etcd напрямую

Страница 191 из 958