
Paul
17.07.2018
10:45:37
самы простой способ

Артамонов Игорь
17.07.2018
10:47:46
Коллеги, а как можно увеличить доступное дисковое пространство для докера, который использует драйвер devicemapper?
Data Space Available: 27.71GB
Вот конкретно эту вот штуку
Увеличение места на самом диске результата не дает. Ощущение, что докер не понимает, что ему есть куда расти
ам из сложностей, ФС диска, на котором крутится /var/lib/docker - btrfs. А докер, в свою очередь, работает через драйвер девайсмаппера
И чот пока нет понимания как это правильно сделать
никто не сталкивался?

Google

66271
17.07.2018
11:30:23
btrfs расширили на это новое место ?

Roman
17.07.2018
11:35:51
А никто не встречал, есть ли возможность делать affinity для всего namespace, а не отдельных pod-ов?

Deep Sea
17.07.2018
11:48:22

Артамонов Игорь
17.07.2018
11:49:50
и да, знаю, что это пиздец для прода

Deep Sea
17.07.2018
11:50:13
Надо ещё сам файл ресайзить
Он сам по себе не растёт
Потом лвм в файле ресайзить

Артамонов Игорь
17.07.2018
11:50:48
а есть какой-то гайд на эту тему?
я чет никак найти документацию не могу корректную

Deep Sea
17.07.2018
11:52:14
https://github.com/docker/docker.github.io/issues/4780

kvaps
17.07.2018
11:53:07
кстати зачем dm если раздел и так btrfs? - докер же умеет btrfs нативно

Google

Артамонов Игорь
17.07.2018
11:53:51

kvaps
17.07.2018
11:55:00
а куб не ругается на dm?
у меня на zfs ругался

Артамонов Игорь
17.07.2018
11:56:26
не, там у меня чисто докеры, без куба.
Пардон. что немного не в то сообщество, да.

kvaps
17.07.2018
11:57:10
хех, да норм все :)

Артамонов Игорь
17.07.2018
12:02:25
# dmsetup reload docker-253:2-100681661-pool --table '0 104857600 thin-pool 7:1 7:0 128 32768 1 skip_block_zeroing'
# sudo dmsetup resume docker-253:2-100681661-pool
device-mapper: resume ioctl on docker-253:2-100681661-pool failed: Недопустимый аргумент
Command failed
что за дичь
вроде ж, все корректно?
# dmsetup info
Name: docker-253:2-100681661-pool
State: SUSPENDED
Read Ahead: 8192
Tables present: LIVE
Open count: 1
Event number: 0
Major, minor: 252, 0
Number of targets: 1
Самое клевое, что в суспенд-то он ушел

Aleksandr
17.07.2018
13:07:09
Подскажите, пожалуйста, как в calico отключить маскарадинг? Чтобы не добавляло правило в iptables

Alexander
17.07.2018
13:24:30
кто может разъяснить по
CPU requests (cores)
CPU limits (cores)
Memory requests
?

Dmitry
17.07.2018
13:28:08
requests используется для шедулинга (рассчитывает, можно ли запустить эту нагрузку на ноде), limits - для ограничения потребления (по памяти например OOM прийдет)

Andrey
17.07.2018
13:48:38
Requests ещё выставляет cpu.shares и oom_score_adj.

Alik
17.07.2018
14:28:44
Привет! Кто-нибудь ставил ambassador за nginx ingress-ом? Это вообще легально?

Nik
17.07.2018
15:09:42
а как на миникубике добавить приватный репо в insecure и залогиниться в него?

Google

ptchol
17.07.2018
16:10:43
Ребят, что nginx ingress имеет ввиду добовляя в конфиг
# Location denied. Reason: the secret kibana-basic-auth does not contain a key with value auth
return 503;
жесть конечно
сорян, я разобрался
просто исходя из этого мана
https://github.com/kubernetes/contrib/tree/master/ingress/controllers/nginx/examples/auth
имя ключа получается из имени файла
ну и конечно я просто рандомно его назвал

Viktor
17.07.2018
16:17:45

Nik
17.07.2018
16:18:47

Kris
17.07.2018
16:21:18
поцоны привет

Sergey
17.07.2018
16:21:46
?

Kris
17.07.2018
16:22:43
есть возможность без написания функции( то есть алиасом) подключиться к одному инстану(внешнему), а с него на внутрений??
ssh -i ~/.ssh/key kiril@внешни_ип && ssh внутрени_ип ——так не катит

Lev
17.07.2018
16:25:25
попробуй без && ?

Kris
17.07.2018
16:25:54
Pseudo-terminal will not be allocated because stdin is not a terminal.

Viktor
17.07.2018
16:27:47
-t добавь

Kris
17.07.2018
16:29:16
по ключю не пускает

Lev
17.07.2018
16:31:20
на первый или второй?

Kris
17.07.2018
16:31:51
первый

Lev
17.07.2018
16:32:30
какая у тебя команда в итоге получилась?

Kris
17.07.2018
16:33:25
ssh -i ~/.ssh/key kiril@внешний -t ssh внутрений

Lev
17.07.2018
16:34:46
хм, у меня ок

Google

Kris
17.07.2018
16:35:27
публичным стартуеш?
google-platform

Lev
17.07.2018
16:37:59
что это значит?)
$ ssh -p 22 -i ~/.ssh/leo leo@serverA -t ssh -p 22 serverB
The authenticity of host '[serverB]:22)' can't be established.
передаю приватный ключ

Kris
17.07.2018
16:38:35

Lev
17.07.2018
16:39:03
ну это как-то по-извращенному, если бы можно было авторизоваться по публичному ключу)

Kris
17.07.2018
16:43:17
ключик забыл, -A, agent forwarding
c ним всё ок

Lev
17.07.2018
16:43:47
ну и отлично

Denis
17.07.2018
17:30:32
https://www.youtube.com/watch?v=4ht22ReBjno
Боян, но всё же :)

Nik
17.07.2018
18:20:21
helm постоянно отадет
User "system:serviceaccount:kube-system:default" cannot get namespaces in the namespace "default"
Если делаю
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
то helm перестает видеть tiller.

Nik
17.07.2018
18:22:38

Sergey
17.07.2018
18:23:35
потому что когда у тебя 10 логов приложения за две недели забирают 15гб то это адъ:)

Nik
17.07.2018
18:27:26

Sergey
17.07.2018
18:27:35
диска
память ну 2 гб максимум

Alex Milushev
17.07.2018
19:11:30
привет, достаточно общий вопрос, но вдруг, нужно стабильное и производительное решение для сети кубера с поддержкой сетевых политик, кто что посоветует по опыту?

Google

Anton
17.07.2018
19:23:01
С calico можно начать. Без ipip производительность на уровне маршрутизации. Полиси поддерживает

Pavel
17.07.2018
21:11:26
Коллеги, какой самый простой способ отнять у NGINX ingress логи обращения к конкретному сервису?
Для их анализа?
Или может есть хороший вариант сразу получать агрегацию по типу запросов и url?

66271
17.07.2018
22:01:43
kubectl get pod | grep nginx | grep ingress
kubectl logs $nginx-ingress-pod | grep $hostname

Pavel
17.07.2018
23:28:50

66271
17.07.2018
23:31:14

Pavel
17.07.2018
23:32:14
Можно получать от всех подлы сразу? Или надо по одному опрашивать?
Плюс для такого запроса нужен kubectl )

Andrey
18.07.2018
00:48:28
подскажите способ(ы) подсоединять внешний сервер, находящийся в одной приватной сети с кластером, ко внутренним сервисам в cluster.local.
На данный момент мне предлагается:
а) пробросить маршрут через: ip route add 10.96.0.0/12 via <IP адрес ноды кластера>
б) добавить в /etc/resolv.conf: nameserver 10.96.0.10
Это работает, но мне не нравится такой костылизм.