
Sergey
19.02.2018
12:48:45
но насколько я понял кубер пока не умеет в стэйджи, зависимости и т.д.

Andrew
19.02.2018
12:51:19
Правда ли Kubernetes так сложен как везде пишут? Я с Docker Swarm и AWS достаточно долго разбирался как завести. Еще дольше?

Let Eat
19.02.2018
12:52:05

Google

Михаил
19.02.2018
12:52:12

Sergey
19.02.2018
12:52:38

Let Eat
19.02.2018
12:52:42

Sergey
19.02.2018
12:52:42
если ты про EKS

Михаил
19.02.2018
12:52:58

Sergey
19.02.2018
12:53:10

Andor
19.02.2018
12:53:17
https://aws.amazon.com/ru/eks/ Регистрация для доступа в ознакомительном режиме

Andrew
19.02.2018
12:53:34
о как

Сергей
19.02.2018
12:53:43
угу только ты сначала от них получи инвайт

Sergey
19.02.2018
12:53:47
интересно а когда fargate + eks будет?

Konstantin
19.02.2018
12:53:48

Sergey
19.02.2018
12:54:43

Google

Sergey
19.02.2018
12:56:08

Сергей
19.02.2018
12:57:23

Dmytro
19.02.2018
13:55:38

Sergey
19.02.2018
13:58:54

Dmytro
19.02.2018
13:59:37
ну как бы не всегда

Sergey
19.02.2018
13:59:57
ну как бы не всегде есть возможность разделить приложение на эти две версии

Dmytro
19.02.2018
14:00:18
типичный юзкейс это когда в enum добавили значение и потом в приложении от этого отвалилось что-то

Sergey
19.02.2018
14:00:39

Andor
19.02.2018
14:00:41
слушайте, а куда спрятали метрики из cadvisor в новой (1.9) версии кубера?

Sergey
19.02.2018
14:00:53
ну то есть все сводится в конечном итоге к обратной совместимости изменений а как ты этого добиваешься - детали реализации

Dmytro
19.02.2018
14:01:18
и тут 2 выхода: делать как все делают с 3 шаговой выкаткой или сделать свой оператор который будет управлять деплоем новой версии приложения

Sergey
19.02.2018
14:04:03
у меня это просто очередной обратно совместимый релиз
у тебя это первый этап, у меня второй
ну то есть флоу одинаковый, просто для того что бы поменять тип поля в конечном итоге мне понадобится 2 цикла деплоя

Dmytro
19.02.2018
14:05:06
нет, почему нейминга, проблемы когда вот было поле инт а потом пришел клиент и говорит а у нас айди UUID - как мы к вам подключимся

Google

Dmytro
19.02.2018
14:05:10
и тд и тп

Andor
19.02.2018
14:05:32
https://github.com/kubernetes/kubernetes/issues/55628 не очень понимаю, его выпилили или обновили? я метрик из него не вижу

Dmytro
19.02.2018
14:05:43
просто миграция она ведь может бежать долго
несколько часов или даже дней

Sergey
19.02.2018
14:06:24
просто миграция она ведь может бежать долго
да, я понимаю. Просто меня смутило что ты это отдельным этапом в деплое делаешь хотя для меня это просто дополнительный деплой который нужен просто что бы консистентность не потерять

Dmytro
19.02.2018
14:06:38
и делать такое через деплоймент - не очень хорошо

Sergey
19.02.2018
14:07:04
согласен

Dmytro
19.02.2018
14:07:19
ну главное по смыслу понятно, например миграция может быть не деплоем вообще если ее накатывают отдельной тулзой

Sergey
19.02.2018
14:07:47
короч понял, в целом меня полностью устраивает

Dmytro
19.02.2018
14:07:52
главное что есть 3 шага - обратно смовеместимый код, миграция, вычищаем
?

Anton
19.02.2018
14:15:14
теперь их снова не найти? =)
https://github.com/kubernetes/charts/blame/master/stable/prometheus/values.yaml#L744
@Andorka, урл отсюда не подходит?
с ноября там изменения висели, ждали мерджа. снова устарели? =)))

Andor
19.02.2018
14:20:41
oh...
через апи-сервер проксировать теперь надо?
что за хрень
/api/v1/nodes/${1}:4194/proxy/metrics

Google

Andor
19.02.2018
14:22:49
и это аж в 1.7 меняли
спасибо, кажется я понял куда дальше ковыряться

Anton
19.02.2018
14:24:42
там вместо ${1} имя ноды

Andor
19.02.2018
14:26:32
ну там понятно по релейбелингу
просто раньше оно напрямую кубелетом отдавалось
а теперь проксируется

M
19.02.2018
15:50:05
ребята подскажите, почему после того как я увеличил число replicas до 6, спустя какое то время, оно обратно возвращается на значение которое было

Alexey
19.02.2018
15:55:19
кто-то реплэйсит конфиг реплики со старым значением?

Vitaliy
19.02.2018
16:01:40

M
19.02.2018
16:02:17

Alexey
19.02.2018
16:02:46
kubectl get horizontalpodautoscaler

M
19.02.2018
16:07:17
а оно спустя минут десять опять возвращается в 3

Alexey
19.02.2018
16:10:43
хз, попробуй так:
kubectl scale - -replicas=6 deploy/nginx
2 дефиса без пробела, телеграм их заменяет

Vitaliy
19.02.2018
16:14:17
kubectl get event, посмотри там

M
19.02.2018
16:16:01

Alexey
19.02.2018
16:16:47
ну он он бы вывелся в get, если No resources found, то он не настроен
так, а поды после скэйла создаются, но через 10 минут удаляются?

Google

M
19.02.2018
16:19:44
нашёл что там стоит minimal replica 3

Slach
19.02.2018
17:47:01
https://github.com/kstmp/metacontroller/tree/master/examples/vitess
а кто нибудь вот это уже щюпал за мягкое?

Tkorochka
19.02.2018
18:35:53

Vladyslav
19.02.2018
22:39:52
на тему деплой с kubespray

66271
20.02.2018
05:22:56

Dmitry
20.02.2018
07:04:05

Slach
20.02.2018
07:09:19

Maksim
20.02.2018
07:15:40

Sergey
20.02.2018
07:21:49