
Andor
13.06.2018
06:40:16
Хотя в данном случае можно просто "нодах"

Anton
13.06.2018
06:40:39
имело ввыду там где он типа был развернут

Banschikov
13.06.2018
06:41:28

Anton
13.06.2018
06:42:56
Normal Killing 41m kubelet, de-1 Killing container with id docker://NAME:Need to kill Pod

Google

Anton
13.06.2018
06:43:13
в эвентах
больше ничего

Banschikov
13.06.2018
06:43:59
может проблема с докер-демоном на самой ноде?

Anton
13.06.2018
06:45:30
ns pod-1528845600-dkcxt 0/1 Terminating 0 7h 88.99.x.x de-1
ns pod-1528854000-rng74 0/1 Terminating 0 5h 88.99.x.x de-2
ns pod-1528864800-8vntf 0/1 Terminating 0 2h 88.99.x.x de-3
на трех сразу?

Дмитрий
13.06.2018
06:51:11
Подскажите, есть облычные сервисы где нужно оперировать не нодами, а запущенными подами? Т. Е. Например у меня есть деплоймент который селектится на азиатские ноды провайдера, и по мере надобности я их скейлю. При этом мне не нужно там настраивать новые ноды руками, а платить только за потребляемые ресурсы подами?

bebebe
13.06.2018
06:52:18

Дмитрий
13.06.2018
06:52:53
Или может делать автоскейлинг и дескейлинг при добавлении/удалении ноды из лэйбла селектора?

Sergey
13.06.2018
06:53:10
ECS, GKE
в GKE ты платишь за ноды, а не за поды

bebebe
13.06.2018
06:54:57

Sergey
13.06.2018
06:56:04

bebebe
13.06.2018
06:56:47

Sergey
13.06.2018
06:57:43
мб я ошибаюсь конечно. но так было на начало года.

Google

Дмитрий
13.06.2018
07:05:15
У амазона похоже тоже привязка к нодам.
Кто, как скейлит в таком случае?

Sergey
13.06.2018
07:10:24
А EKS случаем автоскейлом по наличию подов не обладает?

bebebe
13.06.2018
07:11:36
автоскейлинг группы пристуствуют. но я не щупал

Sergey
13.06.2018
07:12:20
не, вопрос не с целью получить ответ, а с целью навести на мысль для тов. @sunxe

bebebe
13.06.2018
07:14:34
кстати, https://www.digitalocean.com/products/kubernetes/
кто-нибудь получил early access?

Дмитрий
13.06.2018
07:15:46

Sergey
13.06.2018
07:16:30
я немного потерял суть темы:)
мы сейчас пытаемся разобраться как гибко управлять подами?

Дмитрий
13.06.2018
07:16:41
Я про ссылку)

Sergey
13.06.2018
07:20:47
я изначально думал GCP так должен уметь, но чет поглядел их хауту, там без нод тоже не обходится, да и надо ли

Дмитрий
13.06.2018
07:21:19
К примеру, я просто скейлю поду, а сервис мне выдаёт под неё ресурс и не важно сколько под этим нод

Andor
13.06.2018
07:21:56

Sergey
13.06.2018
07:22:37
для baremetal?

Andor
13.06.2018
07:23:39
абстрагироваться от нод на baremetal?
mkaaay..
или ты про расширение кластера ec2 инстансов на baremetal?

Sergey
13.06.2018
07:24:10
ты прост запутал наводя именно на кубер а не провайдера

Google

Sergey
13.06.2018
07:26:17
в целом, если поставить baremetal кластер, с kubevirt, я думаю можно абстрагироваться от нод, которые создает сам кубер, он будет скейлить ноды по шаблону(по идее:D), и в самих нодах расширять количество подов

Дмитрий
13.06.2018
07:27:46
Виртуалки в качестве нод чтоли поднимать?

Sergey
13.06.2018
07:27:58
ну

Дмитрий
13.06.2018
07:29:20
Какой в этом смысл? Ведь ты все равно платишь за железку целиком и использовать её нужно сразу целиком.

Sergey
13.06.2018
07:30:02
так сразу в нее скейл подов и пройдет до упора

Дмитрий
13.06.2018
07:30:30
Ну ладно, я так понял что пока такого сервиса нету, нужно скейлить ноды тем или иным способом

Sergey
13.06.2018
07:30:31
если без виртуалок то надо именно смотреть в управление ресурсами

Михаил
13.06.2018
07:32:00

Anton
13.06.2018
07:35:14
Ждем одисей 1.1)

Дмитрий
13.06.2018
07:35:48

Sergey
13.06.2018
07:37:08
типа "if systemcheck=warning, then scale"?)

Дмитрий
13.06.2018
07:43:16
конкретный механизм, это уже дело десятое
у меня задача разрозненные распределенные части системы как-то упорядочить. От этого у меня появляются много вопросов)
Делать один кластер куба или несколько в разных регионах.
Делать у кубопровайдеров, на виртуалках или на железе?
Делать одну общую кластерную фс или так же несколько в разных регионах или по хостингам.

bebebe
13.06.2018
08:01:42

Дмитрий
13.06.2018
08:03:57

Andor
13.06.2018
08:04:21
сделай быструю наливалку и планирование капасити

bebebe
13.06.2018
08:04:36
+ капельку аджайла

Andor
13.06.2018
08:04:48
и канбана
и девопсов и сре

Google

Ruslan
13.06.2018
08:05:38
Сре :)

Sergey
13.06.2018
08:06:46
https://www.youtube.com/watch?v=e5CQjAEwPJE

Vasilyev
13.06.2018
08:06:48
ну и кубелессервиселесс до кучи

Andor
13.06.2018
08:07:01
серверлесс, точно
как я мог забыть

Дмитрий
13.06.2018
08:07:13

Михаил
13.06.2018
08:16:02

Gleb
13.06.2018
08:17:05
?

Andor
13.06.2018
08:17:09
слова не мальчика, но мужа
У нас было четыре бинаря, пачка скриптов, три модуля для паппета и один кубеспрец. Не то, что бы это всё было нам необходимо, но когда начинаешь устанавливать кубер, остановиться сложно. Единственное, что меня смущало - это ансибл. Нет ничего более ужасного и беспомощного, чем модули для ансибла. Но я знал, что когда-нибудь мы перейдём и на эту дрянь.

Valentin
13.06.2018
09:24:30
страх и ненависть в кубернетесе

Sergey
13.06.2018
09:26:21
а зачем ансибл если кубспрей есть О.о

Andrey
13.06.2018
09:29:40

Эдуард
13.06.2018
10:29:02

kvaps
13.06.2018
10:44:38
Мне вот интересно как Docker Hub и всякие там публичные регистри борятся с майнерами в Dockerfile?
Они же по сути предоставляют бесплатные ресурсы которые можно как угодно использовать во время сборки образа

Sergey
13.06.2018
10:45:44
никак
поэтому доверяют только официальным дистрибьюторам образов а потом ты пилишь свои для своей же проды

kvaps
13.06.2018
10:46:48
так ведь automated build кто угодно может использовать

Dmitry
13.06.2018
10:47:30
Там ж один полудохлый vCPU и два часа лимита на билд, намайнишь там два цента поди.

Sergey
13.06.2018
10:47:35
не совсем понял, можно ведь обращаться к конкретным образам а не к тем что кто то на коленке сделал

Google

kvaps
13.06.2018
10:49:32
@vizdrag обсуждается возможность атаки на docker hub, а не на ваши образы

Sergey
13.06.2018
10:50:03
а, тогда вопросов нет

kvaps
13.06.2018
10:50:05

Stanislav
13.06.2018
11:05:43
Всем привет. Никто случаем не сталкивался с такой проблемой у NGINX INGRESS.
nginx.ingress.kubernetes.io/force-ssl-redirect: "false"
nginx.ingress.kubernetes.io/ssl-redirect: "false"
не работают, всеравно редиректит на https, а нужен http.

Andor
13.06.2018
11:06:11
ну посмотри какой конфиг сгенерился

Stanislav
13.06.2018
11:06:15
Nginx ConfigMap с ssl-redirect: false тоже не пашет
ща
ssl-redirect вообще не вижу в конфигах
ConfigMap для Nginx же может быть локальным?

Andor
13.06.2018
11:13:42
может у тебя браузер закешировал редирект? :)

Stanislav
13.06.2018
11:13:45
Для каждого namespace

Fike
13.06.2018
11:14:16

Stanislav
13.06.2018
11:14:46

Andor
13.06.2018
11:14:54
лол
а чо не курлом-то проверял
эх ты

Stanislav
13.06.2018
11:15:17
я чтото в private mode проверил
думал там кеш не работает