@kubernetes_ru

Страница 781 из 958
Let Eat
24.08.2018
10:04:44
ipvs разве snat не делает?

Дмитрий
24.08.2018
10:04:47
Да, ссылку давал тут даже кажется. Гуглите kubernetes dns random 5 15 seconds delay
Я нашел несколько открытых тикетов на эту тему, но не нашел воркэкунд как побороть

По твоей ссылке он был?)

Andor
24.08.2018
10:05:11
ipvs разве snat не делает?
нет, там другие механизмы немношк

Google
Let Eat
24.08.2018
10:06:44
Гоню, это в момент DNAT в сервис, может ipvs и не подвержен

Dmitry
24.08.2018
10:08:00
почитал , с версиями порешали 18.06 порешали

Let Eat
24.08.2018
10:15:55
По твоей ссылке он был?)
#dnsdelay https://blog.quentin-machu.fr/2018/06/24/5-15s-dns-lookups-on-kubernetes/

Kanan
24.08.2018
10:18:09
добрый день, господа

посоветуйте, пожалуйста материалы и ресурсы по Spark Scalable Deployment using Kubernetes

заранее благодарю

Let Eat
24.08.2018
10:19:18
спасибо
Я загуглил то, что вам написал и ссылка была на первой странице

Дмитрий
24.08.2018
10:22:04
Я загуглил то, что вам написал и ссылка была на первой странице
Ну если значть какую конкретно ссылку искать, то можно быстро найти, я до неё не дошел.

Banschikov
24.08.2018
10:35:24
Всем привет! Поделитесь пожалуйста своими кейсами по резервному копированию баз данных в k8s? К примеру mongodb

Google
Andor
24.08.2018
10:38:07
Главное делать бэкапы етцд

Куберовского

Let Eat
24.08.2018
10:41:04
Andor
24.08.2018
10:41:51
Это шутка

Banschikov
24.08.2018
10:42:38
Все сложно
Мне вот в голову приходит например через gitlab-ci интегрированым с k8s запускать пайплайн, который при помощи kubectl и скриптов делает бэкапы и сливает их в хранилище. Но это как то костыльно мне кажется. Думал может есть уже готове прямые решения

Vadim
24.08.2018
10:49:57
https://github.com/mongodb/mongodb-enterprise-kubernetes вроде говорит что умеет бэкапить

Михаил
24.08.2018
10:57:24
bebebe
24.08.2018
11:01:21
https://blog.quentin-machu.fr/2018/06/24/5-15s-dns-lookups-on-kubernetes/

Вот тут хорошо описано

а ну выше кидали, да

Валентин
24.08.2018
11:12:50
вместо containderd просто поставил докер
Не проще уж по инструкции containerd и заюзать? Я таким путем сходил и пока доволен

Dmitry
24.08.2018
11:13:59
Не проще уж по инструкции containerd и заюзать? Я таким путем сходил и пока доволен
Хотел на докере попробовать , щас если не получится, то его юзну

Не проще уж по инструкции containerd и заюзать? Я таким путем сходил и пока доволен
Тут на самом деле все странно, я консоль не закрывал, пока настраивал 3 мастера, щас во время инициализации нод смотрел - вообще разное , хотя ос и все шаги одинаковые, бред какой то

Валентин
24.08.2018
11:16:38
Ну просто судя по подходу "хочу самую свежую версию докера" - вот, возьми самую свежую версию containerd, которая как раз проверена с k8s последним на совместимость, в отличие от последнего докера

Dmitry
24.08.2018
11:16:44
Ноды ругаются на отсутствие ip_vs, мастера не ругались

Containerd образы тянет с хаба докера?

Валентин
24.08.2018
11:19:40
Разумеется

Dmitry
24.08.2018
11:23:14
щас тогда начну заново)

Валентин
24.08.2018
11:41:42
Там инструкция эта в статье... не на 100% Но хотя б понятная

Google
Gleb
24.08.2018
11:47:38
йоу. у меня есть nginx-ingress, deployment+ service, Azure KS

у него есть, разумеется, внешний публичный IP

как мне ему сделать второй? чтобы не использоваться host based routing

Дмитрий
24.08.2018
12:27:52
Кто нибудь сталкивался с такой проблемной? на одной из нод, примерно через 40-50 минут после запуска контейнера с него пересаёт пинговаться физическая сетка нод. Настройки одинаковые, в логах тоже ничего необычного. Я даже уже перенакатывал кластер, но проблема на одной конкретной ноде не решается.

убиваю контейнер с weave, начинает пинговаться

Как может эта проблемы быть привязана к одному серверу?

Dmitry
24.08.2018
12:58:52
Разумеется
а у тебя дашбоард становиться нормально ? kube-system kubernetes-dashboard-767dc7d4d-997mk 0/1 ImagePullBackOff 0 1m 10.244.3.2 kube-node01 <none>

Дмитрий
24.08.2018
12:59:32
Нужно ждать когда опять отвалится чтобы проверить)

Gleb
24.08.2018
13:04:29
Второй nginx завести?
второй контроллер? и аннотациями выбирать нужный?

Алексей
24.08.2018
13:07:32
нужент poststop для пода какие варианты есть?

пока из рабочих вижу в prestop генерить таск в at

Andor
24.08.2018
13:08:47
а где он будет запускаться?

Алексей
24.08.2018
13:09:19
хост машина

я про таск

pod в кластере на бареметал

Anton
24.08.2018
13:10:33
пропихивать at на хост будешь?

Google
Anton
24.08.2018
13:10:42
а в чем смысл затеи?

Алексей
24.08.2018
13:13:17
собственно зачем мне это есть толстая база в проде есть ее живая реплика на thin volume под в init контейнере создает снапшот и монтирует запускается контейнер с базой и этим снапшотом тестировщики и дев счастлив под прибивается нужно прибраться вот как прибраться и думаю

Anton
24.08.2018
13:14:23
local volume provisioner может прибираться за тебя, только ему нужно заранее намонтировать в /mnt/disks

Andor
24.08.2018
13:14:41
там вроде есть фича что он сам может

только включить надо

Алексей
24.08.2018
13:15:03
снапшоты он тоже удалит сам?

Anton
24.08.2018
13:15:27
снапшоты он тоже удалит сам?
ему можно намутить свой reclaim механизм (скрипт) через configmap

Dmitry
24.08.2018
13:15:33
Да, все ок. Все просто поставилось и работает
Фу блин, а чего он у меня ругается , давно ставил ?

Алексей
24.08.2018
13:16:52
ладно, гляну сейчас может и подойдет

Валентин
24.08.2018
13:17:25
Фу блин, а чего он у меня ругается , давно ставил ?
2 месяца назад. 1.11 куб и контейнерд последний на тот момент

Dmitry
24.08.2018
13:18:00
2 месяца назад. 1.11 куб и контейнерд последний на тот момент
я подумал, что вы на днях строили систему...

Валентин
24.08.2018
13:18:13
Ну зайди на ноду и смотри лог самого containerd, он понятный

Dmitry
24.08.2018
13:21:13
они в var/log?

Ну зайди на ноду и смотри лог самого containerd, он понятный
Как всегда ) спасибо Failed to pull image "k8s.gcr.io/kubernetes-dashboard-amd64:v1.10.0": rpc error: code = Unknown desc = failed to resolve image "k8s.gcr.io/kubernetes-dashboard-amd64:v1.10.0": k8s.gcr.io/kubernetes-dashboard-amd64:v1.10.0 not found

Алексей
24.08.2018
13:25:04
да, похоже подойдет, спасибо

Let Eat
24.08.2018
13:25:19
Валентин
24.08.2018
13:25:52
они в var/log?
Они в journalctl -u containerd -e если у тебя нормальный дистрибутив

Алексей
24.08.2018
13:28:30
про finalizers знаю, но не сильно углублялся в механизм у меня объект для чистки вне кубернетеса, есть сомнения что он мне поможет

Let Eat
24.08.2018
13:30:39
про finalizers знаю, но не сильно углублялся в механизм у меня объект для чистки вне кубернетеса, есть сомнения что он мне поможет
Наоборот поможет. увидели что надо финализировать под. Под уже terminated, просто запись в аписервере осталась, пошли вовне, почистили за подом, обновили ему статус что "чистильщик 1 готов" , убрали себя из списка финалайзеров

Google
Let Eat
24.08.2018
13:31:01
Куб дальше под запись удалит

Anton
24.08.2018
13:37:14
а как сам finalizer описать?

Дмитрий
24.08.2018
14:22:29
только ICMP или еще udp/tcp?
Вот так когда сеть работает 13:00:14.825655 IP ubuntu-7d5f65cd87-q9mrr > ya.ru: ICMP echo request, id 564, seq 1, length 64 13:00:14.833463 IP ya.ru > ubuntu-7d5f65cd87-q9mrr: ICMP echo reply, id 564, seq 1, length 64 а вот так, когда уже нет 14:20:26.824498 IP ubuntu-7d5f65cd87-q9mrr > google-public-dns-a.google.com: ICMP echo request, id 580, seq 1, length 64 14:20:27.823855 IP ubuntu-7d5f65cd87-q9mrr > google-public-dns-a.google.com: ICMP echo request, id 580, seq 2, length 64 14:20:28.823857 IP ubuntu-7d5f65cd87-q9mrr > google-public-dns-a.google.com: ICMP echo request, id 580, seq 3, length 64

что-то в механизме weav ломает нат спустя какие-то время?

Let Eat
24.08.2018
14:56:04
а как сам finalizer описать?
Это просто строчка, которую кто-нибудь должен убрать прежде чем объект удалится

Anton
24.08.2018
14:57:02
ну не по крону же ходить в api в поисках подготовленных для удаления подов

Алексей
24.08.2018
15:07:57
это скорей идет речь про CustomResource тоесть можно наваять свой контроллер + api который будет этим заниматься по идее это более правильный вариант, но задачка у меня локальная думаю at будет сильно проще

Roman
24.08.2018
15:09:03
А кто-нибудь DEX прикручивал с LDAP?

Igor
24.08.2018
15:11:22

Страница 781 из 958