Anton
ну и как обычно, пробовать поднимать из бэкапа
Anton
я уверен можно где нить найти helm chart или описание cronjob для бэкапинга
Anatoliy
Народ, вроде доступ к OVH серверам есть, но ВПСки недоступны, это у меня одного так или еще есть кто с подобной проблемой?
Салтыдык
SBG2 только поднялся
Anatoliy
RBX тоже поднялся
Anton
как хорошо что есть этот чат и можно узнать о судьбе OVH и его цодах
Anatoliy
Ну звиняйте, но когда тут шло обсуждение люди отметились что имеют у них сервера, соответственно была надежда получить ответ по поводу того у всех всё поднялось или нет. А так да, в принципе тут не место для этого.
Logan
@shaposhnikoff почтил нас своим присутствием!
Ilia
я вообще хотел поднять k8s на vscale
Ilia
но у них нет приватной сети
Logan
Logan
но если вы доверяете публичной – шифровать трафло умеет только weave, и оно там (шифрование) спорное очень
Anatoliy
Anatoliy
tinc посмотрите
Anatoliy
там вроде как раз каждый с каждым
Anatoliy
причем если падает коннект между А и Б то траффик пойдет в обход через В
Logan
посмотрю, но вопрос к криптоустойчивости
Logan
именно тинка
Anatoliy
ну вроде это полноценный VPN, просто p2p
Anatoliy
сам еще не пробовал, разберусь с запуском ноды - буду и тинк смотреть
Logan
а какое решение они используют для шифрования? свое написали или взяли готовое? Изобретать крипту – это один из админских смертных грехов :)
Anatoliy
Logan
openssl, вижу
Роман
Ребята, а чтобы подключать glusterfs volumes обязательно ставить glusterfs-client на ноду? Или в hyperkube есть встроенный?
Maksim
Vlad
Aleksey
Oleg
./gk-deploy -gvy
...
Adding device /dev/vdb ... Unable to add device: Unable to execute command on glusterfs-tm59n: Can't initialize physical volume "/dev/vdb" of volume group "vg_3765771ab7bbcbd99f3f7935b2c2d2c1" without -ff
ЧЯДН?
Alexey
Oleg
не помогло
Alexey
на glusterfs-tm59 pvcreate /dev/vdb что говорит?
Oleg
туплю. для той проблемы помогло wipefs -a /dev/vdb,
Oleg
Error: No space
command terminated with exit code 255
Oleg
может такое быть потому что ноды две а не три?
Alexey
Ну, в общем, обычно оно так ругается, когда не может pvcreate сделать, ей нужен совсем чистый диск
Alexey
а в topology.json что указано?
Oleg
IP внутренние виртуалок
Oleg
ну и /dev/vdb
Alexey
http://blog.lwolf.org/post/how-i-deployed-glusterfs-cluster-to-kubernetes/
Oleg
что интересно, разворачивание glusterfs через kubespray проходит без проблем. а вот через gluster-kubernetes как-то не вполне
Oleg
ну да, вижу что третья нода нужна
Oleg
ну ладно, завтра попробую
Oleg
спасибо
Mikhail [azalio]
можно куберу сказать чтобы он упаковывал поды под завязку?
Mikhail [azalio]
по cpu, а не пытался равномерно размазывать?
G72K
Лучшая дока - код ищите по default predicate , там рядом бужет то что нужно
Oleg
продолжаем спотыкаться в gluster-kubernetes)
thin: Required device-mapper target(s) not detected in your kernel.
Run `lvcreate —help' for more information.
Oleg
ну это решилось с
ansible kube-node -a "modprobe dm_thin_pool" -u root -i inventory/inventory.cfg
Oleg
Checking status of pods matching '--selector=job-name=heketi-storage-copy-job':
heketi-storage-copy-job-jrpvs 0/1 ContainerCreating 0 8m
Timed out waiting for pods matching '--selector=job-name=heketi-storage-copy-job'.
Error waiting for job 'heketi-storage-copy-job' to complete.
Oleg
(
Oleg
ну это тоже решаемо
Anatoliy
да всё решаемо, вопрсо во времени которое потребуется потратить на это решение
Mikhail [azalio]
G72K
На вид надо усилить MostRequestedPriority , список priority functions здесь https://github.com/kubernetes/kubernetes/blob/master/plugin/pkg/scheduler/algorithmprovider/defaults/defaults.go
G72K
Спасибо!
^^ вообще то что вам нужно, должно помочь cluster autoscaler убирать ноды, когда нагрузка спала, так что может в его доке найдутся более конкретные инструкции
Салтыдык
Владислав
привет всем. Помогите плиз, есть куб. 2 неймспейса, есть много сервисов в обоих неймспейсах. Запустил под с tutum/curl, могу достучаться до всех сервисох со второго неймспейса, кроме 2. Не могу понять почему - endpoints у этих сервисов доступны, iptables все ок вроде, разницы в манифестах для доступных и недоступных сервисов не вижу, dns работает, даже по IP недоступны. Куда копать не знаю, подскажите. Ошибка - no route to host
Anton
судя по всему что то с маршрутами =))
Владислав
как это понять подскажите плиз
Anton
а из того же namespace доступ есть?
Владислав
да
Anton
уверен что никто не пилил policy?
Владислав
не знаю, я в этом не шарю. Как проверить и что?
Anton
kubectl get networkpolicies --all-namespaces
Anton
начать отсюда мож
Владислав
No resources found.
Anton
может на cni уровне что то есть и там можно посмотреть полиси? ну я сам в сетевые политики не залезал, может из зала кто подскажет еще =))
Anton
https://kubernetes.io/docs/tasks/debug-application-cluster/debug-service/
Владислав
смотрел уже, что-то неособо помогло, либо я какой-то мелочи не вижу.
Владислав
спасибо
Ivan
G72K
Ivan
Фланнел может без etcd работать
да, он может ходить в апи
ключ —kube-subnet-mgr
https://github.com/coreos/flannel/blob/master/Documentation/configuration.md
Sergei
господа, использует ли кто-то ipv6-only кластеры?
Роман
А кто-нибудь выделяет ресурсы kubelet'у? Не мало ли ему 100m cpu и 512M памяти?