@kubernetes_ru

Страница 436 из 958
Sergey
19.02.2018
12:48:45
Это и есть проблема с архитектурой)
это не проблема с архитектурой, это желание что бы я описал стратегию деплоя и волшебная штука все магически сделала

но насколько я понял кубер пока не умеет в стэйджи, зависимости и т.д.

Andrew
19.02.2018
12:51:19
Правда ли Kubernetes так сложен как везде пишут? Я с Docker Swarm и AWS достаточно долго разбирался как завести. Еще дольше?

Google
Михаил
19.02.2018
12:52:12
Правда ли Kubernetes так сложен как везде пишут? Я с Docker Swarm и AWS достаточно долго разбирался как завести. Еще дольше?
Берешь kube-aws вкатываешь за день, оно работает потом амазон перекатывает твою ноду и пиздец

Sergey
19.02.2018
12:52:38
Let Eat
19.02.2018
12:52:42
Sergey
19.02.2018
12:52:42
если ты про EKS

Михаил
19.02.2018
12:52:58
AKS
over CoreOS?)

Sergey
19.02.2018
12:53:10
AKS
EKS*

Andor
19.02.2018
12:53:17
https://aws.amazon.com/ru/eks/ Регистрация для доступа в ознакомительном режиме

Andrew
19.02.2018
12:53:34
о как

Сергей
19.02.2018
12:53:43
угу только ты сначала от них получи инвайт

Sergey
19.02.2018
12:53:47
интересно а когда fargate + eks будет?

Konstantin
19.02.2018
12:53:48
это не проблема с архитектурой, это желание что бы я описал стратегию деплоя и волшебная штука все магически сделала
Как мне кажется, вы не до конца пониманиете идеалогию кубера, она про отсутсвие состояния. Миграция и приложение это в целом два разнесенных процесса, которые друг к другу не шибко относятся.

Sergey
19.02.2018
12:54:43
Как мне кажется, вы не до конца пониманиете идеалогию кубера, она про отсутсвие состояния. Миграция и приложение это в целом два разнесенных процесса, которые друг к другу не шибко относятся.
ну так какое это отношение к архитектуре имеет место? либо вы по своему трактуете этот термин. А идея да - до меня только сейчас дошло что менеджмент процессов это не зона ответственности кубера

Google
Sergey
19.02.2018
12:56:08
угу только ты сначала от них получи инвайт
даты релиза не озвучивали? хотелось бы что-то конкретнее чем "в этом году"

Dmytro
19.02.2018
13:55:38
и уверен что сначала миграция а потом раскатить новую версию приложеньки на класстер
вот тут имхо концепутальная ошибка, нужно делать 3-шаговое выкатывание кода: 1. выкатываем код который может работать со старой схемой бд и с новой 2. выкатываем миграцию и она себе бежит сколько ей надо 3. когда миграция закончила бежать выкатываем код который работает только с новой версией схемы бд

даты релиза не озвучивали? хотелось бы что-то конкретнее чем "в этом году"
ну как бы они зарелизили приват бету, когда станет паблик - по результатам беты, скорее всего на новый реинвент а там хз. У них сейчас хватает головняка с М5 и С5

Dmytro
19.02.2018
13:59:37
ну как бы не всегда

Sergey
19.02.2018
13:59:57
ну как бы не всегде есть возможность разделить приложение на эти две версии

Dmytro
19.02.2018
14:00:18
типичный юзкейс это когда в enum добавили значение и потом в приложении от этого отвалилось что-то

Sergey
19.02.2018
14:00:39
типичный юзкейс это когда в enum добавили значение и потом в приложении от этого отвалилось что-то
это не является обратно совмесимым изменением в схеме, не находишь?

Andor
19.02.2018
14:00:41
слушайте, а куда спрятали метрики из cadvisor в новой (1.9) версии кубера?

Sergey
19.02.2018
14:00:53
ну потому и говорят что проблемы с архитектурой
нет, это в описанном тобой кейсе проблемы с архитектурой

ну то есть все сводится в конечном итоге к обратной совместимости изменений а как ты этого добиваешься - детали реализации

Dmytro
19.02.2018
14:01:18
и тут 2 выхода: делать как все делают с 3 шаговой выкаткой или сделать свой оператор который будет управлять деплоем новой версии приложения

нет, это в описанном тобой кейсе проблемы с архитектурой
это один из кейсов, другой кейс когда надо поменять тип поля с инта на строку например - надо сначала продеплоить код который не упадет если придет не инт а строка

Sergey
19.02.2018
14:04:03
у меня это просто очередной обратно совместимый релиз

у тебя это первый этап, у меня второй

ну то есть флоу одинаковый, просто для того что бы поменять тип поля в конечном итоге мне понадобится 2 цикла деплоя

Dmytro
19.02.2018
14:05:06
нет, почему нейминга, проблемы когда вот было поле инт а потом пришел клиент и говорит а у нас айди UUID - как мы к вам подключимся

Google
Andor
19.02.2018
14:05:32
https://github.com/kubernetes/kubernetes/issues/55628 не очень понимаю, его выпилили или обновили? я метрик из него не вижу

Dmytro
19.02.2018
14:05:43
просто миграция она ведь может бежать долго

несколько часов или даже дней

Sergey
19.02.2018
14:06:24
просто миграция она ведь может бежать долго
да, я понимаю. Просто меня смутило что ты это отдельным этапом в деплое делаешь хотя для меня это просто дополнительный деплой который нужен просто что бы консистентность не потерять

Dmytro
19.02.2018
14:06:38
и делать такое через деплоймент - не очень хорошо

Sergey
19.02.2018
14:07:04
согласен

Dmytro
19.02.2018
14:07:19
ну главное по смыслу понятно, например миграция может быть не деплоем вообще если ее накатывают отдельной тулзой

Sergey
19.02.2018
14:07:47
короч понял, в целом меня полностью устраивает

Dmytro
19.02.2018
14:07:52
главное что есть 3 шага - обратно смовеместимый код, миграция, вычищаем

?

Anton
19.02.2018
14:15:14
теперь их снова не найти? =)

https://github.com/kubernetes/charts/blame/master/stable/prometheus/values.yaml#L744 @Andorka, урл отсюда не подходит?

с ноября там изменения висели, ждали мерджа. снова устарели? =)))

Andor
19.02.2018
14:20:41
oh...

через апи-сервер проксировать теперь надо?

что за хрень

/api/v1/nodes/${1}:4194/proxy/metrics

Google
Andor
19.02.2018
14:22:49
и это аж в 1.7 меняли

спасибо, кажется я понял куда дальше ковыряться

Anton
19.02.2018
14:24:42
там вместо ${1} имя ноды

Andor
19.02.2018
14:26:32
ну там понятно по релейбелингу

просто раньше оно напрямую кубелетом отдавалось

а теперь проксируется

M
19.02.2018
15:50:05
ребята подскажите, почему после того как я увеличил число  replicas до 6, спустя какое то время, оно обратно возвращается на значение которое было

Alexey
19.02.2018
15:55:19
кто-то реплэйсит конфиг реплики со старым значением?

M
19.02.2018
16:02:17
мб ты заюзал horizontalpodautoscaler
хм я пока не знаю что это и где

Alexey
19.02.2018
16:02:46
kubectl get horizontalpodautoscaler

M
19.02.2018
16:07:17
kubectl get horizontalpodautoscaler
у меня такого даже нет) я просто сделал вот как kubectl edit deploy/nginx и там изменил реплика на 6

а оно спустя минут десять опять возвращается в 3

Alexey
19.02.2018
16:10:43
хз, попробуй так: kubectl scale - -replicas=6 deploy/nginx

2 дефиса без пробела, телеграм их заменяет

Vitaliy
19.02.2018
16:14:17
kubectl get event, посмотри там

M
19.02.2018
16:16:01
2 дефиса без пробела, телеграм их заменяет
а если это все таки horizontal Podautoscaller

Alexey
19.02.2018
16:16:47
ну он он бы вывелся в get, если No resources found, то он не настроен

так, а поды после скэйла создаются, но через 10 минут удаляются?

Google
M
19.02.2018
16:19:44
нашёл что там стоит minimal replica 3

Slach
19.02.2018
17:47:01
https://github.com/kstmp/metacontroller/tree/master/examples/vitess а кто нибудь вот это уже щюпал за мягкое?

Tkorochka
19.02.2018
18:35:53
66271
20.02.2018
05:22:56
на тему деплой с kubespray
так cilium заработал или нет ?

Страница 436 из 958