Artem
один в один как тут
Artem
есть какие то воркэраунды как это можно обойти?
Maxim
Была именно такая же проблема на docker 1.11.* Обновление до 1.12 все исправило
Artem
сейчас стоит Docker version 17.03.1-ce, build c6d412e
Artem
а воз и ныне там(
Maxim
bridge или user-defined?
Maxim
у нас была и ушла проблема в user-defined
Artem
в bridge
Artem
ага
Artem
это в gke
Artem
по дефолту
Роман
Странное поведение. Поставил nginx-ingress-controller с куберовского гитхаба. И к нему идёт очень много подключений со всего мира. Понять не могу - что это?
Igor
Значит flannel никуда не делся
Роман
Заработало почему-то. Может у него свои какие-то настройки, которые деплоятся.
Igor
Видимо заработал как CNI plugin, просто один flannel - это всего лишь оверлейная сеть
Роман
Кстати, что характерно, я пробовал пинговать 8.8.8.8 с установленным фланнелем - у подов не было интернета. А у canal всё нормально.
Igor
Calico там правит iptables не по детски :) Как-то насчитал под 200 rules
Igor
Но есть там ньюанс, без феликса закрыт трафик из пода на порты хоста
Anonymous
если мне в mongodb нужно несколько юзеров с разными правами, то это нужно в конфиге при деплое прописывать же?
Logan
есть специальный способ выполнить команду при старте, поищи в доках. Не могу сейчас вспомнить, как называется
Etki
init containers?
Anonymous
еще проблемка у меня при апдейте образа создается новый replicaset, а старый не удаляется :c
Anonymous
> kubectl set image deployment image:vN.B.C
Anton
>clean up policy
Роман
Есть данные (код приложения и статика), которые (почти никогда) не изменяются. Сейчас это хранится прямо в образе. Но есть проблема: это хранится сразу в двух образах: php и nginx. Вопрос вот какой: есть какой-то способ, типа волюма, чтобы подключить его и туда, и туда? Или лучше какой-то контейнер, который будет заниматься только копированием файлов в это хранилище, и не висеть, как запущенный процесс. Просто сами волюмы, вроде как, говорят, не очень правильно для этого использовать.
Denis
Привет! Собрал кластер по мануалу (только на своих виртуалках CentOS 7.3) https://github.com/kelseyhightower/kubernetes-the-hard-way На шаге https://github.com/kelseyhightower/kubernetes-the-hard-way/blob/master/docs/08-network.md поставилл Flannel на воркеры (через systemd), подсеть такая же как podCIDR. Запустил nginx (https://github.com/kelseyhightower/kubernetes-the-hard-way/blob/master/docs/10-smoke-test.md) После некоторых плясок с настройкой докера, все взлетело. Решил поставить dashboard > kubectl create -f https://rawgit.com/kubernetes/dashboard/master/src/deploy/kubernetes-dashboard.yaml > kubectl get pods --namespace=kube-system NAME READY STATUS RESTARTS AGE kube-dns-321336704-qp4tj 4/4 Running 0 11h kubernetes-dashboard-2039414953-kcp15 1/1 Running 0 9h Поднял kubectl proxy Кидаю GET http://127.0.0.1:8001/ui отвечает Error: 'dial tcp 10.200.0.10:9090: getsockopt: no route to host' Trying to reach: 'http://10.200.0.10:9090/' В чем может быть проблема? (10.200.0.0/16 это подсеть подов)
Denis
Есть ощущение что flannel не используется как надо, как жто проверить?
Denis
Надо ли как то дружить flannel и cni ?
Роман
Надо ли как то дружить flannel и cni ?
Я вчера тоже мучился с flannel. В итоге поставил canal)
Denis
ну все таки хочется понять что не работает ) а не тыкаться в разные решения
Denis
Я вчера тоже мучился с flannel. В итоге поставил canal)
а поставил через daemonset или нативно?
Anonymous
немного оффтопа: если вкратце как посоветуете чарты через helm создавать для баз данных? стейтфулсеты вроде как правильнее но проблема с обновлениями, деплойменты проще обновляются но падают от любого ветра, демонсеты сложно разруливать
Evgeniy
@notxcain Привет. ты вроде писал, что пробовал ранчер - интересно ты там тоже k8s пускал и завелось ли оно?
Denis
@strobegen я понял что хочу понимать как это все работает и решил с нуля поставить и настроить
Denis
ранчер у меня кстати не завелся
Denis
даже etcd не стартанул
Evgeniy
это да, там просто вагон всего скрывается
Denis
магия хорошо, когда знаешь как она делается
Evgeniy
> ранчер у меня кстати не завелся я после того как ты писал тоже попробовал, и аналогично не все взлетело - хотя полгода назад все заводилось, но туда не ставился helm по этому я и бросил с этим капаться
Denis
Вообщем, сейчас понимаю что с сеткой проблемы
Denis
думаю снести flannel из systemd и поставить через ds
Evgeniy
там могут быть ньуансы если скажем приватная сеть не совсем настоящая, роутер например в облаке может часть пакетов дропать
Evgeniy
вот у них в доке про AWS написанно Because the instance will be sending and receiving traffic for IPs other than the one assigned by our subnet, we need to disable source/destination checks. https://github.com/coreos/flannel/blob/008a58373bff2a28bd4b8d603d24844733c55e41/Documentation/aws-vpc-backend.md но это актуально далеко не только для AWS
Evgeniy
flannel вроде бы не шифрует payload пакетов, по этому их могут резать если там, что то не как у всех
Evgeniy
у ранчера по умолчанию сеть ipsec в которой это решено
Denis
там могут быть ньуансы если скажем приватная сеть не совсем настоящая, роутер например в облаке может часть пакетов дропать
у меня для тестов 6 VMware виртуалок, на нашей железке. Думаю нигде ничего не дропается )
Denis
Ну и походу DNS не работает как надо > kubectl exec -ti busybox -- nslookup kubernetes.default Server: 10.32.0.10 Address 1: 10.32.0.10 nslookup: can't resolve 'kubernetes.default'
No
Господа, можно глупый вопрос. Вот запустил я nginx-ingress. По примеру отсюда. https://github.com/kubernetes/ingress/tree/master/examples/deployment/nginx
No
Каким образом мне теперь экспоузить сервисы?
No
🙈 Мне кажется я чего-то недопонимаю
Роман
Каким образом мне теперь экспоузить сервисы?
Теперь тебе нужно создать Ingress. Который по пути, или named base будет открывать то, что тебе нужно.
Роман
Схема такая: deploy <- service <- ingress
No
Хорошо, попробую
No
Насколько я понимаю, это базовый пример, которые есть в доке
Роман
Да.
Роман
Меня другой вопрос по ингресс интересует: есть дока по созданию своего ингресс-контроллера?
No
root@k8s-cluster-init-osv:~/kubernetes-anywhere-0.1.0# ./kubectl get ing my-nginx NAME HOSTS ADDRESS PORTS AGE my-nginx * fe80::a495:fa... 80 59s Блин, а откудв ipv6 то?
Maksim
Да.
Нет)) Но тут всё довольно просто. Опрашивает API сервер, реалезуем все фичи ингресс (vhost path ssl ) и пишем в api что владем правилом
No
root@k8s-cluster-init-osv:~/kubernetes-anywhere-0.1.0# cat nginx-ingress/ingress.json apiVersion: extensions/v1beta1 kind: Ingress metadata: name: my-nginx spec: backend: serviceName: my-nginx servicePort: 80
No
Что я сделал не так 🙇
Maksim
а где описание пути?
Maksim
)
Maksim
[root@222720-10009 ~]# kubectl get ing e-queue —namespace=e-queue -o yaml apiVersion: extensions/v1beta1 kind: Ingress metadata: annotations: ingress.kubernetes.io/ssl-redirect: "false" creationTimestamp: 2017-02-01T12:44:49Z generation: 8 name: e-queue namespace: e-queue resourceVersion: "13841837" selfLink: /apis/extensions/v1beta1/namespaces/e-queue/ingresses/e-queue uid: 3843667a-e87c-11e6-9e1b-5254000046d4 spec: rules: - host: sbersandbox.ru http: paths: - backend: serviceName: e-queue servicePort: 80 path: /e-queue/ - http: paths: - backend: serviceName: e-queue servicePort: 80 path: /sandbox/e-queue/ - http: paths: - backend: serviceName: e-queue servicePort: 80 path: /e-queue/
No
Ну в доке про Single Service Ingress именно такой пример, как у меня, без path
Maksim
Ооо
No
https://kubernetes.io/docs/concepts/services-networking/ingress/
Maksim
apiVersion: extensions/v1beta1 kind: Ingress metadata: name: test-ingress spec: rules: - http: paths: - path: /testpath backend: serviceName: test servicePort: 80
Maksim
Это из доки
No
Чуть ниже, single service
No
Но возможно я не прав, сейчас попробую
Maksim
контроллер