Artem
один в один как тут
Artem
есть какие то воркэраунды как это можно обойти?
Maxim
Была именно такая же проблема на docker 1.11.*
Обновление до 1.12 все исправило
Artem
сейчас стоит Docker version 17.03.1-ce, build c6d412e
Artem
а воз и ныне там(
Maxim
bridge или user-defined?
Maxim
у нас была и ушла проблема в user-defined
Artem
в bridge
Dmitry
Artem
ага
Artem
это в gke
Artem
по дефолту
Роман
Странное поведение. Поставил nginx-ingress-controller с куберовского гитхаба. И к нему идёт очень много подключений со всего мира. Понять не могу - что это?
Igor
Роман
Igor
Значит flannel никуда не делся
Роман
Заработало почему-то. Может у него свои какие-то настройки, которые деплоятся.
Igor
Видимо заработал как CNI plugin, просто один flannel - это всего лишь оверлейная сеть
Роман
Кстати, что характерно, я пробовал пинговать 8.8.8.8 с установленным фланнелем - у подов не было интернета. А у canal всё нормально.
Igor
Calico там правит iptables не по детски :) Как-то насчитал под 200 rules
Igor
Но есть там ньюанс, без феликса закрыт трафик из пода на порты хоста
Anonymous
если мне в mongodb нужно несколько юзеров с разными правами, то это нужно в конфиге при деплое прописывать же?
Logan
есть специальный способ выполнить команду при старте, поищи в доках. Не могу сейчас вспомнить, как называется
Etki
init containers?
Anonymous
еще проблемка у меня при апдейте образа создается новый replicaset, а старый не удаляется :c
Anonymous
> kubectl set image deployment image:vN.B.C
Anton
Anton
>clean up policy
Роман
Есть данные (код приложения и статика), которые (почти никогда) не изменяются. Сейчас это хранится прямо в образе. Но есть проблема: это хранится сразу в двух образах: php и nginx.
Вопрос вот какой: есть какой-то способ, типа волюма, чтобы подключить его и туда, и туда? Или лучше какой-то контейнер, который будет заниматься только копированием файлов в это хранилище, и не висеть, как запущенный процесс. Просто сами волюмы, вроде как, говорят, не очень правильно для этого использовать.
Zon
Есть данные (код приложения и статика), которые (почти никогда) не изменяются. Сейчас это хранится прямо в образе. Но есть проблема: это хранится сразу в двух образах: php и nginx.
Вопрос вот какой: есть какой-то способ, типа волюма, чтобы подключить его и туда, и туда? Или лучше какой-то контейнер, который будет заниматься только копированием файлов в это хранилище, и не висеть, как запущенный процесс. Просто сами волюмы, вроде как, говорят, не очень правильно для этого использовать.
Я цепляю ридонли диски, но процесс их обновления так себе. Пришлось обвязку написать, чтоб из сторадж бакета копировать в диски, которые потом к подам цепляются
Zon
Denis
Есть ощущение что flannel не используется как надо, как жто проверить?
Denis
Надо ли как то дружить flannel и cni ?
Denis
ну все таки хочется понять что не работает ) а не тыкаться в разные решения
Denis
Роман
Anonymous
немного оффтопа: если вкратце как посоветуете чарты через helm создавать для баз данных? стейтфулсеты вроде как правильнее но проблема с обновлениями, деплойменты проще обновляются но падают от любого ветра, демонсеты сложно разруливать
Evgeniy
@notxcain
Привет.
ты вроде писал, что пробовал ранчер - интересно ты там тоже k8s пускал и завелось ли оно?
Denis
@strobegen я понял что хочу понимать как это все работает и решил с нуля поставить и настроить
Denis
ранчер у меня кстати не завелся
Denis
даже etcd не стартанул
Evgeniy
это да, там просто вагон всего скрывается
Denis
магия хорошо, когда знаешь как она делается
Evgeniy
> ранчер у меня кстати не завелся
я после того как ты писал тоже попробовал, и аналогично не все взлетело - хотя полгода назад все заводилось, но туда не ставился helm по этому я и бросил с этим капаться
Denis
Вообщем, сейчас понимаю что с сеткой проблемы
Denis
думаю снести flannel из systemd и поставить через ds
Evgeniy
там могут быть ньуансы если скажем приватная сеть не совсем настоящая, роутер например в облаке может часть пакетов дропать
Evgeniy
вот у них в доке про AWS написанно
Because the instance will be sending and receiving traffic for IPs other than the one assigned by our subnet, we need to disable source/destination checks.
https://github.com/coreos/flannel/blob/008a58373bff2a28bd4b8d603d24844733c55e41/Documentation/aws-vpc-backend.md
но это актуально далеко не только для AWS
Evgeniy
flannel вроде бы не шифрует payload пакетов, по этому их могут резать если там, что то не как у всех
Evgeniy
у ранчера по умолчанию сеть ipsec в которой это решено
Denis
yolkov
Есть данные (код приложения и статика), которые (почти никогда) не изменяются. Сейчас это хранится прямо в образе. Но есть проблема: это хранится сразу в двух образах: php и nginx.
Вопрос вот какой: есть какой-то способ, типа волюма, чтобы подключить его и туда, и туда? Или лучше какой-то контейнер, который будет заниматься только копированием файлов в это хранилище, и не висеть, как запущенный процесс. Просто сами волюмы, вроде как, говорят, не очень правильно для этого использовать.
инит контейнер который из образа с данными будет копировать в волум, который будет подключаться уже или к обоим или к тому которому не хватает данных
Denis
Ну и походу DNS не работает как надо
> kubectl exec -ti busybox -- nslookup kubernetes.default
Server: 10.32.0.10
Address 1: 10.32.0.10
nslookup: can't resolve 'kubernetes.default'
No
Господа, можно глупый вопрос. Вот запустил я nginx-ingress. По примеру отсюда. https://github.com/kubernetes/ingress/tree/master/examples/deployment/nginx
No
Каким образом мне теперь экспоузить сервисы?
No
🙈 Мне кажется я чего-то недопонимаю
Роман
Схема такая: deploy <- service <- ingress
No
Хорошо, попробую
No
Насколько я понимаю, это базовый пример, которые есть в доке
Роман
Да.
Роман
Меня другой вопрос по ингресс интересует: есть дока по созданию своего ингресс-контроллера?
No
root@k8s-cluster-init-osv:~/kubernetes-anywhere-0.1.0# ./kubectl get ing my-nginx
NAME HOSTS ADDRESS PORTS AGE
my-nginx * fe80::a495:fa... 80 59s Блин, а откудв ipv6 то?
Maksim
Да.
Нет)) Но тут всё довольно просто. Опрашивает API сервер, реалезуем все фичи ингресс (vhost path ssl ) и пишем в api что владем правилом
No
root@k8s-cluster-init-osv:~/kubernetes-anywhere-0.1.0# cat nginx-ingress/ingress.json
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: my-nginx
spec:
backend:
serviceName: my-nginx
servicePort: 80
No
Что я сделал не так 🙇
Maksim
а где описание пути?
Maksim
)
Maksim
[root@222720-10009 ~]# kubectl get ing e-queue —namespace=e-queue -o yaml
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
annotations:
ingress.kubernetes.io/ssl-redirect: "false"
creationTimestamp: 2017-02-01T12:44:49Z
generation: 8
name: e-queue
namespace: e-queue
resourceVersion: "13841837"
selfLink: /apis/extensions/v1beta1/namespaces/e-queue/ingresses/e-queue
uid: 3843667a-e87c-11e6-9e1b-5254000046d4
spec:
rules:
- host: sbersandbox.ru
http:
paths:
- backend:
serviceName: e-queue
servicePort: 80
path: /e-queue/
- http:
paths:
- backend:
serviceName: e-queue
servicePort: 80
path: /sandbox/e-queue/
- http:
paths:
- backend:
serviceName: e-queue
servicePort: 80
path: /e-queue/
No
Ну в доке про Single Service Ingress именно такой пример, как у меня, без path
Maksim
Ооо
No
https://kubernetes.io/docs/concepts/services-networking/ingress/
Maksim
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: test-ingress
spec:
rules:
- http:
paths:
- path: /testpath
backend:
serviceName: test
servicePort: 80
Maksim
Это из доки
No
Чуть ниже, single service
No
Но возможно я не прав, сейчас попробую
Роман
Maksim
контроллер