
Paul
16.08.2018
11:17:40
поумнели что-то боты последнее время

Vadim
16.08.2018
11:22:20
@SinTeZoiD предлагаю захостить https://github.com/xvitaly/ecasbot - он на три дня запретит новоприбывшим постить линки и картинки. Если это человек, то ручками можно разбанить
оно еще умеет фильтровать китайских рекламщиков

Михаил
16.08.2018
11:23:46

Google

Михаил
16.08.2018
11:24:02
я ж тут так
Вахтёру только да набрасываю

Stanislav
16.08.2018
11:29:57
Народ, а кто как готовит логи с containerd?
C докером то более менее понятно, подключил драйвер и вперед. А вот с containerd не очень
файлы только парсить filebeat?

Andrey
16.08.2018
11:45:26
Столько людей новых сегодня

Andor
16.08.2018
11:45:38
половина спамеры небось

Andrey
16.08.2018
11:45:50
Захваченные может аккаунты

Artem
16.08.2018
11:51:56
all your kubernetes are belong to us

Юра
16.08.2018
12:36:22
whosyourdaddy

Andor
16.08.2018
12:36:33
iseedeadpeople

Prezident
16.08.2018
12:36:51
ребят, чем плох OpenShift?

Юра
16.08.2018
12:36:57
Эх, на настольгию пробило )

Google

Алексей
16.08.2018
12:37:38

Юра
16.08.2018
12:37:54
Как будто это что-то плохое

Prezident
16.08.2018
12:38:16
так он вроде платный
да, но если технически делать выбор, вы бы выбрали OpenShift, или взяли бы "голый" кубер, с фланелем, хельмом, и т.д.?

Алексей
16.08.2018
12:39:16

Prezident
16.08.2018
12:39:16
я просто пытаюсь понять для себя) я его кручу, вроде бы неплохо)
но может быть просто я криворукий мудак)

Юра
16.08.2018
12:40:20

Andrey
16.08.2018
12:40:35
Ребят, а как через kubectl узнать что поды деплоймента не поднялись после деплоя?
Т.е. например если несуществует или не получилось спулить image.
В kubernetes-dashboard я вижу ошибку Failed to pull image ....
А как узнать об этом через kubectl?
Основная цель, автооткат на CI, если при деплое случилась ошибка или не прошла readiness проба

Prezident
16.08.2018
12:40:44

Юра
16.08.2018
12:41:10
Ну это моё мнение, не более

Алексей
16.08.2018
12:41:28

Artem
16.08.2018
12:41:38

Gunslinger
16.08.2018
12:42:31

Prezident
16.08.2018
12:42:38

Oleg ?
16.08.2018
12:43:02
Всем привет. может кто нибудь пояснить за pod dns. есть headless service и pods. Создаются в ns: app
https://pastebin.com/aEyr73SP
Но поды не резолвятся вообще никак: ни proc-1.app.pod.cluster.local, ни proc-1.proc-headless.app.pod.cluster.local

camodor
16.08.2018
12:43:15

Gunslinger
16.08.2018
12:43:16

Andrey
16.08.2018
12:43:58

camodor
16.08.2018
12:44:05
если хочешь контролировать выкатку, то можешь использовать kubctl wait

Google

Artem
16.08.2018
12:44:15

camodor
16.08.2018
12:44:24
он дожидается определенных кондиций, если деплой не прошел, то падает с ошибкой

Andrey
16.08.2018
12:45:37

Oleg ?
16.08.2018
12:45:41

Алексей
16.08.2018
12:45:48

camodor
16.08.2018
12:48:08
эта фича у клиента появилась

Anton
16.08.2018
12:49:00
https://kubernetes.io/docs/concepts/workloads/controllers/deployment/#deployment-status

Andrey
16.08.2018
12:50:21

Artem
16.08.2018
12:50:26

Anton
16.08.2018
12:51:00

Andrey
16.08.2018
12:51:08

Andrey
16.08.2018
12:51:23

Anton
16.08.2018
12:51:40
да, ждет когда все готово хотя бы в одном поде

Andrey
16.08.2018
12:53:30
$ kubectl rollout status deployment/test-deployment
error: deployment "test-deployment" exceeded its progress deadline
А кто в курсе, в этот "progress deadline" входит readiness проба?

Anton
16.08.2018
12:54:28
кнчно

Andor
16.08.2018
13:10:49
засекаем время до спама

Admin
ERROR: S client not available

Andrey
16.08.2018
13:13:29
кнчно
Блин, оно кароч работает немного иначе.
Оно просто ждет некий таймаут. Если после него деплоймент не пришел в себя, то говорит что все плохо.
Т.е. если readiness проба имеет таймаут 10 сек, а .spec.progressDeadlineSeconds = 1, то даже если под удачно пройдет все пробы и задеплоится, но не успеет на 1 секунду, то будет завален =\

Vadim
16.08.2018
13:25:58

Google

blkmrkt
16.08.2018
13:37:18
кто использовал GPU в кластере от Гугла? В инструкции написано что нужно запрашивать ресурсы вот так:
resources:
limits:
nvidia.com/gpu: 2
Но куб ругается что контейнеры становятся нескалируемыми с ошибками о невозможности предоставить достаточно ресурсов com.gpu, nvidia (sic), cpu.
если под уже крутится на gpu-enabled пуле, то гпу должны быть уже доступны, да? Просто из докера нужно динамически подгрузить либы?

Let Eat
16.08.2018
13:55:27

Konstantin
16.08.2018
14:13:53
столкнулся с таким поведением:
kubectl rollout status отдал статус ОК AVAILABLE 1, хотя под в итоге не поднялся из-за ошибки внутри контейнера и реальный статус AVAILABLE 0
я так понимаю, без livenessProbe\readinessProbe полагаться на rollout status не стоит или где-то в другом месте проблема?

Anton
16.08.2018
14:38:55
обязательно нужны probes, иначе как?
ведь на них куча всего завязано
ready говорит что трафик может идти к поду
live - что процесс в поде вообще жив
у нас где в некоторых аппах сделали на ready даже проверку что все внешние зависимости живы
вроде как если ты всеравно не сможешь в mq отправить\принять сообщение или записать результат работы куда то, то и толку нет тебе трафик принимать

Alexey
16.08.2018
14:42:24
/report

Konstantin
16.08.2018
14:53:35
обязательно нужны probes, иначе как?
да, это понятно) но скажем так, CI\CD процесс с автодеплоем для staging по шаблону, полное отстутствие манифестов куба. Разработчик пушит только код\Dockerfile. И тут особо пробы не воткнёшь.

Anton
16.08.2018
14:58:05

Konstantin
16.08.2018
14:58:42
да, но я рассматриваю худший вариант, а зачастую именно он и происходит (

Andor
16.08.2018
15:02:25

Konstantin
16.08.2018
15:03:12
когда тебе тимлид говорит - сложна, то не хочется ничего втыкать

Anton
16.08.2018
15:03:27
тогда похуй, кати как есть

Andor
16.08.2018
15:05:20
Ну ты объясни ему проблемы
А дальше он пусть сам решает
Пусть хоть с даунтаймом деплоится

Konstantin
16.08.2018
15:06:17
угу, так и есть

Google

Konstantin
16.08.2018
15:06:53
да мне для себя понять надо было, как синхронно деплоить и почему я получил статус 0, когда статус 1

Let Eat
16.08.2018
15:37:49
Господа, вы когда с несколькими кластерами живете, то cluster.local суффикс переопределяете? Хочу чтобы они могли друг с другом говорить, вот думаю переопределить, тогда и сервис с ручными endpoints развесить можно и в сертификатах все правильно пропишется. Ну это в теории , как на практике?

Anton
16.08.2018
15:38:54
а как ты их по внутренним именам собираешься связывать?

Let Eat
16.08.2018
15:39:24