@kubernetes_ru

Страница 619 из 958
Andor
13.06.2018
06:40:16
Хотя в данном случае можно просто "нодах"

Anton
13.06.2018
06:40:39
имело ввыду там где он типа был развернут

Banschikov
13.06.2018
06:41:28
имело ввыду там где он типа был развернут
Да я это понял. А что describe показывает?

Anton
13.06.2018
06:42:56
Normal Killing 41m kubelet, de-1 Killing container with id docker://NAME:Need to kill Pod

Google
Anton
13.06.2018
06:43:13
в эвентах

больше ничего

Banschikov
13.06.2018
06:43:59
может проблема с докер-демоном на самой ноде?

Anton
13.06.2018
06:45:30
ns pod-1528845600-dkcxt 0/1 Terminating 0 7h 88.99.x.x de-1 ns pod-1528854000-rng74 0/1 Terminating 0 5h 88.99.x.x de-2 ns pod-1528864800-8vntf 0/1 Terminating 0 2h 88.99.x.x de-3

на трех сразу?

Дмитрий
13.06.2018
06:51:11
Подскажите, есть облычные сервисы где нужно оперировать не нодами, а запущенными подами? Т. Е. Например у меня есть деплоймент который селектится на азиатские ноды провайдера, и по мере надобности я их скейлю. При этом мне не нужно там настраивать новые ноды руками, а платить только за потребляемые ресурсы подами?

Дмитрий
13.06.2018
06:52:53
Или может делать автоскейлинг и дескейлинг при добавлении/удалении ноды из лэйбла селектора?

Sergey
13.06.2018
06:53:10
ECS, GKE
в GKE ты платишь за ноды, а не за поды

bebebe
13.06.2018
06:54:57
в GKE ты платишь за ноды, а не за поды
хм, что-то не гуглится, а разве в google нельзя контейнер без ноды запустить?

bebebe
13.06.2018
06:56:47
нет. GKE это просто fully managed kubernetes.
как же так, как же так, у меня почему то была полная уверенность что у гугла можно хостить свои контейнеры без нод

Sergey
13.06.2018
06:57:43
мб я ошибаюсь конечно. но так было на начало года.

Google
Дмитрий
13.06.2018
07:05:15
У амазона похоже тоже привязка к нодам.

Кто, как скейлит в таком случае?

Sergey
13.06.2018
07:10:24
А EKS случаем автоскейлом по наличию подов не обладает?

bebebe
13.06.2018
07:11:36
А EKS случаем автоскейлом по наличию подов не обладает?
https://docs.aws.amazon.com/eks/latest/userguide/launch-workers.html с этим лучше в @aws_ru

автоскейлинг группы пристуствуют. но я не щупал

Sergey
13.06.2018
07:12:20
не, вопрос не с целью получить ответ, а с целью навести на мысль для тов. @sunxe

bebebe
13.06.2018
07:14:34
кстати, https://www.digitalocean.com/products/kubernetes/ кто-нибудь получил early access?

Дмитрий
13.06.2018
07:15:46
А EKS случаем автоскейлом по наличию подов не обладает?
Я так понял, это автодобавление ноды в кластер, при добалвении виртуалки в группу в амазоне

Sergey
13.06.2018
07:16:30
я немного потерял суть темы:) мы сейчас пытаемся разобраться как гибко управлять подами?

Дмитрий
13.06.2018
07:16:41
Я про ссылку)

я немного потерял суть темы:) мы сейчас пытаемся разобраться как гибко управлять подами?
Да, хотелось бы понять, есть ли возможность обстрагироввться от нод

Sergey
13.06.2018
07:20:47
я изначально думал GCP так должен уметь, но чет поглядел их хауту, там без нод тоже не обходится, да и надо ли

Дмитрий
13.06.2018
07:21:19
К примеру, я просто скейлю поду, а сервис мне выдаёт под неё ресурс и не важно сколько под этим нод

Andor
13.06.2018
07:21:56
А EKS случаем автоскейлом по наличию подов не обладает?
в кубере есть автоскейлер который умеет расширять кластер

Sergey
13.06.2018
07:22:37
для baremetal?

Andor
13.06.2018
07:23:39
абстрагироваться от нод на baremetal?

mkaaay..

или ты про расширение кластера ec2 инстансов на baremetal?

Sergey
13.06.2018
07:24:10
ты прост запутал наводя именно на кубер а не провайдера

Google
Sergey
13.06.2018
07:26:17
в целом, если поставить baremetal кластер, с kubevirt, я думаю можно абстрагироваться от нод, которые создает сам кубер, он будет скейлить ноды по шаблону(по идее:D), и в самих нодах расширять количество подов

Дмитрий
13.06.2018
07:27:46
Виртуалки в качестве нод чтоли поднимать?

Sergey
13.06.2018
07:27:58
ну

Дмитрий
13.06.2018
07:29:20
Какой в этом смысл? Ведь ты все равно платишь за железку целиком и использовать её нужно сразу целиком.

Sergey
13.06.2018
07:30:02
так сразу в нее скейл подов и пройдет до упора

Дмитрий
13.06.2018
07:30:30
Ну ладно, я так понял что пока такого сервиса нету, нужно скейлить ноды тем или иным способом

Sergey
13.06.2018
07:30:31
если без виртуалок то надо именно смотреть в управление ресурсами

Михаил
13.06.2018
07:32:00
они даже улучшеный pgbouncer зарелизили
А кто-то его уже пробовал?

Anton
13.06.2018
07:35:14
Ждем одисей 1.1)

Дмитрий
13.06.2018
07:35:48
если без виртуалок то надо именно смотреть в управление ресурсами
У меня просто сейчас такая схема, что на одной виртуалке у хостера крутится один сервис, и когда его ресурса не хватает, добавляется ещё один в параллель. Проблемы шарить ресурс одной ноды нету. Пока добавляется руками, но продумываю как это автоматизировать.

Sergey
13.06.2018
07:37:08
типа "if systemcheck=warning, then scale"?)

Дмитрий
13.06.2018
07:43:16
конкретный механизм, это уже дело десятое

у меня задача разрозненные распределенные части системы как-то упорядочить. От этого у меня появляются много вопросов)

Делать один кластер куба или несколько в разных регионах. Делать у кубопровайдеров, на виртуалках или на железе? Делать одну общую кластерную фс или так же несколько в разных регионах или по хостингам.

Дмитрий
13.06.2018
08:03:57
так и не понял где у вас болит
пока нигде не болит, пытаюсь планировать инфраструктуру.

Andor
13.06.2018
08:04:21
сделай быструю наливалку и планирование капасити

bebebe
13.06.2018
08:04:36
+ капельку аджайла

Andor
13.06.2018
08:04:48
и канбана

и девопсов и сре

Google
Ruslan
13.06.2018
08:05:38
Сре :)

Sergey
13.06.2018
08:06:46
https://www.youtube.com/watch?v=e5CQjAEwPJE

Vasilyev
13.06.2018
08:06:48
ну и кубелессервиселесс до кучи

Andor
13.06.2018
08:07:01
серверлесс, точно

как я мог забыть

Дмитрий
13.06.2018
08:07:13
+ капельку аджайла
перемешать, но не взбалтывать)

Михаил
13.06.2018
08:16:02
сделай быструю наливалку и планирование капасити
правильное планирование капасити: так что бы хватило до увольнения

Gleb
13.06.2018
08:17:05
?

Andor
13.06.2018
08:17:09
слова не мальчика, но мужа

У нас было четыре бинаря, пачка скриптов, три модуля для паппета и один кубеспрец. Не то, что бы это всё было нам необходимо, но когда начинаешь устанавливать кубер, остановиться сложно. Единственное, что меня смущало - это ансибл. Нет ничего более ужасного и беспомощного, чем модули для ансибла. Но я знал, что когда-нибудь мы перейдём и на эту дрянь.

Valentin
13.06.2018
09:24:30
страх и ненависть в кубернетесе

Sergey
13.06.2018
09:26:21
а зачем ансибл если кубспрей есть О.о

Andrey
13.06.2018
09:29:40
так что в теории куберовский LoadBalance сервис може получить FloatingIP
В продолжении темы про Heztner, их ответ: «our cloud platform is not based on OpenStack but on Linux KVM and a self developed control platform. So a loadbalancer is currently not possible.»

Эдуард
13.06.2018
10:29:02
по http реально?
Ставил же

kvaps
13.06.2018
10:44:38
Мне вот интересно как Docker Hub и всякие там публичные регистри борятся с майнерами в Dockerfile?

Они же по сути предоставляют бесплатные ресурсы которые можно как угодно использовать во время сборки образа

Sergey
13.06.2018
10:45:44
никак поэтому доверяют только официальным дистрибьюторам образов а потом ты пилишь свои для своей же проды

kvaps
13.06.2018
10:46:48
так ведь automated build кто угодно может использовать

Dmitry
13.06.2018
10:47:30
Там ж один полудохлый vCPU и два часа лимита на билд, намайнишь там два цента поди.

Sergey
13.06.2018
10:47:35
не совсем понял, можно ведь обращаться к конкретным образам а не к тем что кто то на коленке сделал

Google
kvaps
13.06.2018
10:49:32
@vizdrag обсуждается возможность атаки на docker hub, а не на ваши образы

Sergey
13.06.2018
10:50:03
а, тогда вопросов нет

kvaps
13.06.2018
10:50:05
Там ж один полудохлый vCPU и два часа лимита на билд, намайнишь там два цента поди.
вот это более логичное объяснение, но все равно, можно нагенерить сотни образов, которые будут сами себя пушить во время сборки раз в два часа и перезапускать ребилд :)

Stanislav
13.06.2018
11:05:43
Всем привет. Никто случаем не сталкивался с такой проблемой у NGINX INGRESS. nginx.ingress.kubernetes.io/force-ssl-redirect: "false" nginx.ingress.kubernetes.io/ssl-redirect: "false" не работают, всеравно редиректит на https, а нужен http.

Andor
13.06.2018
11:06:11
ну посмотри какой конфиг сгенерился

Stanislav
13.06.2018
11:06:15
Nginx ConfigMap с ssl-redirect: false тоже не пашет

ща

ssl-redirect вообще не вижу в конфигах

ConfigMap для Nginx же может быть локальным?

Andor
13.06.2018
11:13:42
может у тебя браузер закешировал редирект? :)

Stanislav
13.06.2018
11:13:45
Для каждого namespace

Stanislav
13.06.2018
11:14:46
может у тебя браузер закешировал редирект? :)
Бля, точно))) В другом попробовал норм! Спс

Andor
13.06.2018
11:14:54
лол

а чо не курлом-то проверял

эх ты

Stanislav
13.06.2018
11:15:17
я чтото в private mode проверил

думал там кеш не работает

Страница 619 из 958