@kubernetes_ru

Страница 687 из 958
Артамонов Игорь
17.07.2018
10:47:46
Коллеги, а как можно увеличить доступное дисковое пространство для докера, который использует драйвер devicemapper? Data Space Available: 27.71GB Вот конкретно эту вот штуку Увеличение места на самом диске результата не дает. Ощущение, что докер не понимает, что ему есть куда расти ам из сложностей, ФС диска, на котором крутится /var/lib/docker - btrfs. А докер, в свою очередь, работает через драйвер девайсмаппера И чот пока нет понимания как это правильно сделать

никто не сталкивался?

Google
66271
17.07.2018
11:30:23
btrfs расширили на это новое место ?

Roman
17.07.2018
11:35:51
А никто не встречал, есть ли возможность делать affinity для всего namespace, а не отдельных pod-ов?

Артамонов Игорь
17.07.2018
11:49:50
и да, знаю, что это пиздец для прода

Deep Sea
17.07.2018
11:50:13
Надо ещё сам файл ресайзить

Он сам по себе не растёт

Потом лвм в файле ресайзить

Артамонов Игорь
17.07.2018
11:50:48
а есть какой-то гайд на эту тему?

я чет никак найти документацию не могу корректную

Deep Sea
17.07.2018
11:52:14
https://github.com/docker/docker.github.io/issues/4780

Google
Артамонов Игорь
17.07.2018
11:53:51
кстати зачем dm если раздел и так btrfs? - докер же умеет btrfs нативно
Это вот вообще не спрашивай, сам, сука, задаю вопросы тем, кто народил это чудовище в прод

а почему бы не снести весь /var/lib/docker целиком и не создать заново + все имаджи перекачать?
да, это второй вариант, но там даунтайм больше. Пока что рассматриваю как альтернативный подход

kvaps
17.07.2018
11:55:00
а куб не ругается на dm?

у меня на zfs ругался

Артамонов Игорь
17.07.2018
11:56:26
не, там у меня чисто докеры, без куба. Пардон. что немного не в то сообщество, да.

kvaps
17.07.2018
11:57:10
хех, да норм все :)

Артамонов Игорь
17.07.2018
12:02:25
https://github.com/docker/docker.github.io/issues/4780
Слушай, а по какой причине может не работать dmsetup resume?

# dmsetup reload docker-253:2-100681661-pool --table '0 104857600 thin-pool 7:1 7:0 128 32768 1 skip_block_zeroing' # sudo dmsetup resume docker-253:2-100681661-pool device-mapper: resume ioctl on docker-253:2-100681661-pool failed: Недопустимый аргумент Command failed

что за дичь

вроде ж, все корректно?

# dmsetup info Name: docker-253:2-100681661-pool State: SUSPENDED Read Ahead: 8192 Tables present: LIVE Open count: 1 Event number: 0 Major, minor: 252, 0 Number of targets: 1

Самое клевое, что в суспенд-то он ушел

Aleksandr
17.07.2018
13:07:09
Подскажите, пожалуйста, как в calico отключить маскарадинг? Чтобы не добавляло правило в iptables

Alexander
17.07.2018
13:24:30
кто может разъяснить по CPU requests (cores) CPU limits (cores) Memory requests

?

Dmitry
17.07.2018
13:28:08
requests используется для шедулинга (рассчитывает, можно ли запустить эту нагрузку на ноде), limits - для ограничения потребления (по памяти например OOM прийдет)

Andrey
17.07.2018
13:48:38
Requests ещё выставляет cpu.shares и oom_score_adj.

Alik
17.07.2018
14:28:44
Привет! Кто-нибудь ставил ambassador за nginx ingress-ом? Это вообще легально?

Nik
17.07.2018
15:09:42
а как на миникубике добавить приватный репо в insecure и залогиниться в него?

Google
ptchol
17.07.2018
16:10:43
Ребят, что nginx ingress имеет ввиду добовляя в конфиг # Location denied. Reason: the secret kibana-basic-auth does not contain a key with value auth return 503;

жесть конечно

сорян, я разобрался

просто исходя из этого мана https://github.com/kubernetes/contrib/tree/master/ingress/controllers/nginx/examples/auth имя ключа получается из имени файла

ну и конечно я просто рандомно его назвал

Viktor
17.07.2018
16:17:45
Kris
17.07.2018
16:21:18
поцоны привет

Sergey
17.07.2018
16:21:46
?

Kris
17.07.2018
16:22:43
есть возможность без написания функции( то есть алиасом) подключиться к одному инстану(внешнему), а с него на внутрений??

ssh -i ~/.ssh/key kiril@внешни_ип && ssh внутрени_ип ——так не катит

Lev
17.07.2018
16:25:25
попробуй без && ?

Kris
17.07.2018
16:25:54
Pseudo-terminal will not be allocated because stdin is not a terminal.

Viktor
17.07.2018
16:27:47
-t добавь

Kris
17.07.2018
16:29:16
по ключю не пускает

Lev
17.07.2018
16:31:20
на первый или второй?

Kris
17.07.2018
16:31:51
первый

Lev
17.07.2018
16:32:30
какая у тебя команда в итоге получилась?

Kris
17.07.2018
16:33:25
ssh -i ~/.ssh/key kiril@внешний -t ssh внутрений

Lev
17.07.2018
16:34:46
хм, у меня ок

Google
Kris
17.07.2018
16:35:27
публичным стартуеш?

google-platform

Lev
17.07.2018
16:37:59
что это значит?)

$ ssh -p 22 -i ~/.ssh/leo leo@serverA -t ssh -p 22 serverB The authenticity of host '[serverB]:22)' can't be established.

передаю приватный ключ

Kris
17.07.2018
16:38:35
Lev
17.07.2018
16:39:03
ну это как-то по-извращенному, если бы можно было авторизоваться по публичному ключу)

Kris
17.07.2018
16:43:17
ключик забыл, -A, agent forwarding

c ним всё ок

Lev
17.07.2018
16:43:47
ну и отлично

Denis
17.07.2018
17:30:32
https://www.youtube.com/watch?v=4ht22ReBjno

Боян, но всё же :)

Nik
17.07.2018
18:20:21
helm постоянно отадет User "system:serviceaccount:kube-system:default" cannot get namespaces in the namespace "default" Если делаю kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}' то helm перестает видеть tiller.

Nik
17.07.2018
18:22:38
в том что логстеш тяжелый и логи хранит по гигу в день?)
Логстэш как парсер логов очень меня радует, да, он жрёт какое-то кол-во памяти, да, но не нужно его на каждой ноде запускать. У меня filebeat daemonset + logstash (2-3) реплики, все нужды закрывает,работает как часы)

Sergey
17.07.2018
18:23:35
потому что когда у тебя 10 логов приложения за две недели забирают 15гб то это адъ:)

Sergey
17.07.2018
18:27:35
диска

память ну 2 гб максимум

Alex Milushev
17.07.2018
19:11:30
привет, достаточно общий вопрос, но вдруг, нужно стабильное и производительное решение для сети кубера с поддержкой сетевых политик, кто что посоветует по опыту?

Google
Anton
17.07.2018
19:23:01
С calico можно начать. Без ipip производительность на уровне маршрутизации. Полиси поддерживает

Pavel
17.07.2018
21:11:26
Коллеги, какой самый простой способ отнять у NGINX ingress логи обращения к конкретному сервису? Для их анализа? Или может есть хороший вариант сразу получать агрегацию по типу запросов и url?

66271
17.07.2018
22:01:43
kubectl get pod | grep nginx | grep ingress kubectl logs $nginx-ingress-pod | grep $hostname

Pavel
17.07.2018
23:28:50
66271
17.07.2018
23:31:14
Хм. А по имени workload’а нельзя?
с термином workload я не знаком) логи можно получить только от пода, не от деплоймента

Pavel
17.07.2018
23:32:14
Можно получать от всех подлы сразу? Или надо по одному опрашивать?

Плюс для такого запроса нужен kubectl )

Andrey
18.07.2018
00:48:28
подскажите способ(ы) подсоединять внешний сервер, находящийся в одной приватной сети с кластером, ко внутренним сервисам в cluster.local. На данный момент мне предлагается: а) пробросить маршрут через: ip route add 10.96.0.0/12 via <IP адрес ноды кластера> б) добавить в /etc/resolv.conf: nameserver 10.96.0.10 Это работает, но мне не нравится такой костылизм.

Страница 687 из 958