kay
а дальше посмотрим
kay
контейнеры без kubernetes запускай
kay
чистый odcker
Anonymous
а, сек
Anonymous
на разных нодах? Им 172.17.0.2 обоим выдал, ну и iptables там будет работать дефолтный докера
Anonymous
или я что-то не понимаю)
kay
на разных нодах.
kay
значит дело в том, что скорее всего dcoker ни сллыхзом ни духом о weave
kay
не знаю как weave, но flannel сначала пилит сеть, затем создает конфигурационный файл
Anonymous
вполне возможно
kay
и этот конфигурационный файл используется как ENV в демоне докера
Anonymous
я просто следовал http://kubernetes.io/docs/getting-started-guides/kubeadm/
kay
тебе нужно остановить докер, выпилить все IP адреса с docker0 моста
kay
затем проверить ENV file, прописан ли он в конфиге докера
kay
если прописан - запустить docker и посмотреть какой IP присвоился docker0
Anonymous
докер демон действительно ничего про weave не знает, и судя по доке инсталяции - в принципе не должен. Я вижу тут в доке есть https://github.com/microservices-demo/microservices-demo/tree/master/deploy/kubernetes/manifests ямлы с NetworkPolicy
Anonymous
вот в их примере всё работает)
Anonymous
кроме CLUSTER_IP
Anonymous
который вот не понятно как должен работать)
Anonymous
я понял, это всё резолвится только iptables
Anonymous
а почему может удаление зависать, и как можно отдебажить? $ kubectl delete deployment ubuntu --now
Anonymous
а, нашел ишью: https://github.com/kubernetes/kubernetes/issues/8598
Zon
Кто-то на gke живёт? Как вам без петсетов?
kay
петсеты еще недоделаны
kay
слишком уж специализированные возможности
kay
были бы темплейты
kay
https://github.com/kubernetes/kubernetes/issues/30755
Zon
разве их там нет?
Только на альфа кластере который через месяц сносят
Zon
https://github.com/kubernetes/kubernetes/issues/28718 я буду за этим следить)
Etki
по-моему я на нормальном кластере разворачивал и сворачивал
Etki
> Today, September 1, I got an email from Google Cloud Platform announcing that PetSet was "accidentally enabled" and will be disabled on September 30. все, вопрос снят
Anonymous
Кто-то на gke живёт? Как вам без петсетов?
я живу... вообще не дошел до них еще так что даже не знал что их нет :)
Anonymous
оффтоп: кто-то просил скрипт которым выкладываю билд в кубик но я забыл кто, сорян - тогда тут скину https://gist.github.com/anonymous/abd1324a7c16e2bac0ae3b27ea766703
Anonymous
ну как "стейтфул"... )
Zon
Ну базы :)
Anonymous
репликасеты в основном
kay
кстати а поясните в чем разница между rc и rs?
Anonymous
In short, if you start a rolling update and close your laptop, your replicas have some mix of intermediate image versions. If you create a deployement and close your laptop, the deployment either gets POSTed successfully to apiserver, in which case it works server side, or it doesn't, in which case all your replicas are still on the old version
kay
стоп. так rs == deplyment???
Anonymous
ну деплоймент репликасеты генерит
kay
а
kay
ну да
yolkov
rc вроде уже особо не нужны как я понимаю
yolkov
а как у всех поднят kube-proxy, как статик под? почему его не поднимают как daemonset?
kay
кто какой storage driver для docker рекомендует использовать?
Timur
direct-lvm
Sergei
overlay и всё более-менее полезное, естественно, в volume.
kay
или всётаки overlay2?
Timur
ну для rhel рекоммендуют все-таки direct-lvm
Sergei
# docker info 2>&1 | grep Stora Storage Driver: overlay
kay
а в чем собсвтенно отличие overlay от overlay2?
Sergei
Since version 1.12, Docker also provides overlay2 storage driver which is much more efficient than overlay in terms of inode utilization. The overlay2 driver is only compatible with Linux kernel 4.0 and later.
Etki
по-моему прямо здесь был идентичный топик, попробуй поиском выцепить
kay
спасибо
Etki
т.е. storage driver, overlay - там все это @pipopolam с кем-то обсуждал, есои память не подводит
Timur
угу
Timur
куда он пропал кстати
Anonymous
а как у всех поднят kube-proxy, как статик под? почему его не поднимают как daemonset?
"You will run docker, kubelet, and kube-proxy outside of a container, the same way you would run any system daemon, so you just need the bare binaries."
Anonymous
а почему вообще kube-proxy как под, если в доке рекомендуют демоном?)
Anonymous
тебе нужно остановить докер, выпилить все IP адреса с docker0 моста
всё так, спасибо. Странно, что инструкция по установке с kubeadm это не описывает. Я так понимаю - обычная практика cbr0 бридж создавать, дальше его настраивать kubelet'ом, чтобы оно правильный cidr ему выдало?
Anonymous
то, что я осознал из документации (дока у кубернетиса заставляет много думать и много смотреть в разные места)
Alexander
Кто подскажет как к service ограничить доступ одним namespace?
kay
CNI, что-то вроде calico
kay
неисследованная тема для меня пока :(
kay
https://github.com/weaveworks/kubediff
Alexander
есть CNI плагин и есть CNI Calico, это одно и тоже?
yolkov
нет
yolkov
у меня калико работает
yolkov
мне все нравится, но у меня своя инфраструктура и я на сетевом оборудовании настройил bgp route reflector и сейчас у меня есть связность основной иснраструктуры и сети контейнеров
yolkov
если бы еще можно было туда прокинуть сеть для сервисов, то вообще бы была сказка
yolkov
только cni calico будет недостаточно, нужно все равно cni установить
yolkov
тут вроде об этом писали, сейчас ишью найду
yolkov
https://github.com/projectcalico/calico-containers/issues/1115
yolkov
для weave это тоже актуально вроде
yolkov
Вопрос: кто использует два кластера kubernetes, вы используете единую сеть calico/weave/и.т.п или для каждого кластера отдельныю сеть?
Alexander
у меня flannel