
Andrey
25.07.2018
06:07:21

Oleg
25.07.2018
06:09:10
Не, так нельзя

Andrey
25.07.2018
06:09:29
почему?

Oleg
25.07.2018
06:11:28
У тебя на ингресс придет GET / и по нему мне нужен один сервис, который отдаст условный index

Google

Andrey
25.07.2018
06:12:32
в изначальной постаноке задачи звучало по другому :)

Juriy
25.07.2018
06:23:38
Вот к примеру следующая последовательность изменений:
1. Запуск джобы, которая запускает миграцию, которая добавляет новую колонку в таблицу
2. Деплой через helm приложения, которое работает со старой колонкой, но умеет писать в новую колонку
3. Запуск джобы, которая заполняет новую колонку
4. Деплой через helm приложения, которое работает только с новой колонкой
5. Запуск джобы, которая удаляет старую колонку
Итого три миграции и два деплоя приложения в строгой последовательности.
Кто как для этого случая организует репо, артефакты, как выкатывает?
@mxssl @im_xray33 @gorilych @yurik687 @shursh @StalkerNOVA
Сегодня как раз буду подобное настраивать, обычно у нас все проще, монго снаружи и стаинтлесс образы внутри.
Ничеси.


Roman
25.07.2018
07:53:56
Привет! Ребятки, кто подскажет от чего зависит EXTERNAL-IP для ноды при вводе команды kubectl get nodes -o wide?
И если EXTERNAL-IP сейчас <none> для всех нод, то куда надо смотреть?
Крутится все на AWS, внешние IP есть

Anton
25.07.2018
07:56:23
кажется там дискаверинг на уровне "через который интерфейс стоит default gw, тот и адрес ноды"
но это не факт
у меня оказывается тоже там none, я этого и не замечал раньше

Maxim
25.07.2018
08:50:27
может кому интересно будет, с 1.10.4 на 1.11.1 (etcd 3.2.11 -> 3.2.18, установлено не в докере, отдельно на мастерах как демон) обновление прошло без проблем через kubeadm
когда несколько мастеров надо только не забыть указать конфиг, с которым они поднимались --config config.yaml иначе затрется kube-apiserver.yaml
еще важный нюанс, когда обновляется kubeadm из реп гугла, он зачемто перезатирает системдшный юнит kubelet, надо не забыть его перед обновлением kubeadm куданить сохранить или можно взять его с соседнего мастера, они одинаковые

blkmrkt
25.07.2018
09:06:22

Google

Anton
25.07.2018
09:09:01
так удобно логи в скриншотах смотреть. но спасибо что хоть не фото экрана

Pavel
25.07.2018
09:18:21
А вы что накатили?

blkmrkt
25.07.2018
09:20:05
А вы что накатили?
ничего не делал, просто смотрю kubectl не работает, в логах вот это вот выше

Pavel
25.07.2018
09:20:58
Не открывается страница?
Зайдите на машину где его контейнер запущен и
Sudo docker engine restart
Вроде так пишется

blkmrkt
25.07.2018
09:21:56

Pavel
25.07.2018
09:22:04
Так бывает если там только докер без ингресса

blkmrkt
25.07.2018
09:22:59
Делал docker restart, docker container restart 6c3, а у контейнера rancher/rancher все равно аптайм показывает 7 дней
рестартю сервис докера вот сейчас
странно что оно все сломалось, я ничего и не делал же
а вспомнил, я ранчер агента запускал на той же машине
Как rancher-agent удалить и запретить ему запускаться снова? Делал docker rm -f, удалял имаг этой версии. Не помогает. После рестарта докера, он появляёется снова под новым ид.

Pavel
25.07.2018
10:07:10
ОооОоО
Агент на машине с чем? С основным ранчером?

blkmrkt
25.07.2018
10:07:43
В смысле агент?
угу. Я агент и ранчер на одну ноду поставил, теперь не пойму какой контейнер от ранчера, какой от ноды

Google

blkmrkt
25.07.2018
10:07:49
под docker ports ни у одного контейнера нет маппингов порта, как это?

Алексей
25.07.2018
10:19:34
так а если в kubectl посмотреть?

blkmrkt
25.07.2018
10:22:53

kvaps
25.07.2018
10:56:22
cri-tools?

Pavel
25.07.2018
11:06:42
Kubectl из командной строки
Вообще фотка плохая. Я сервера не вижу, агент его снес чтоли?
Покажи docker images

blkmrkt
25.07.2018
11:07:43
Покажи docker images
root@sd-134062:~# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
rancher/rancher-agent v2.0.6 3571bad91a6b 13 days ago 296 MB
rancher/rancher latest d41d39f8dd65 13 days ago 531 MB
rancher/hyperkube v1.10.5-rancher1 ec897787d958 3 weeks ago 976 MB
rancher/rke-tools v0.1.10 51eebeddb033 4 weeks ago 124 MB
rancher/calico-node v3.1.1 d94b64ac210d 3 months ago 248 MB
rancher/calico-cni v3.1.1 482f47df27e2 3 months ago 68.8 MB
rancher/coreos-etcd v3.1.12 02f30926cd60 4 months ago 34.8 MB
rancher/pause-amd64 3.1 da86e6ba6ca1 7 months ago 742 kB
rancher/coreos-flannel v0.9.1 2b736d06ca4c 8 months ago 51.3 MB

Pavel
25.07.2018
11:08:11
Ранчер1? Через час посмотрю на свой инстал кину скрин как у меня

blkmrkt
25.07.2018
11:08:29

Pavel
25.07.2018
11:10:52
Хм. D65 похож, у него вольюмы или как?

Алексей
25.07.2018
11:12:20
вообще агент ранчера поднимает сам ранчер/rancher для своих нужд

Ivan
25.07.2018
11:13:09
Вопрос. Я в миникуб залил 3 пода. Они по умолчанию должны пинговатб друг друга по имени или обязательно к ним сервисы надо создавать. Вроде в документации написано что в ДНС для подов должны создаватся A записи

blkmrkt
25.07.2018
11:13:12

Алексей
25.07.2018
11:13:43

Ivan
25.07.2018
11:14:08

Google

Алексей
25.07.2018
11:14:26

Ivan
25.07.2018
11:14:46

Алексей
25.07.2018
11:15:41

Ivan
25.07.2018
11:15:58
по ip пингуется кстати. Имя не резолвит

Валентин
25.07.2018
11:46:00

Evgeny
25.07.2018
12:21:53

M
25.07.2018
12:31:26
ребят подскажите а в kuberentes для deploy есть указатель чтобы минимальное количество pods было равно количеству нод
и чтобы при добавлени ноды там стартавала пода, но и приэтом дополнительно был hpa

Sergei
25.07.2018
12:33:22
daemon set

M
25.07.2018
12:33:41
daemon set
так даемон сет разве может быть больше количества нод ?

Dmitry
25.07.2018
12:34:00
можно сделать daemonset и deployment c hpa, и один сервис для обоих.

Dmytro
25.07.2018
12:40:52

M
25.07.2018
12:49:46

Dmitry
25.07.2018
12:50:36
Ага, с одинаковым лейблом, и сервис с селектором по этому лейблу

Kirill
25.07.2018
13:03:31

Dmytro
25.07.2018
13:09:15
в смысле не помогало? kubedns выжирал весь проц на ноде или что происходило?

kvaps
25.07.2018
13:10:39
подскажите на вскидку, как заставить деплоймент запускать другой под немедленно если первый сломался?

Anton
25.07.2018
13:16:14
сломался по liveness?

kvaps
25.07.2018
13:23:29
а имеет значение как сломался?

Google

kvaps
25.07.2018
13:23:45
я просто не делал liveness probe пока :)
а если по liveness сломается, пересоздаст автоматом?

Dmytro
25.07.2018
13:31:18
да
только по readiness
хотя вру, по liveness https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-probes/#define-a-liveness-http-request
> The kubelet starts performing health checks 3 seconds after the Container starts. So the first couple of health checks will succeed. But after 10 seconds, the health checks will fail, and the kubelet will kill and restart the Container.

Andrey
25.07.2018
13:44:05
#helm
как остановить релиз?

Алексей
25.07.2018
13:45:08
Привет. В кубернете, чтобы заставить шедулить поды по одному на ноду возможно сделать не используя ДаемонСет?

Dmytro
25.07.2018
13:46:00
(немного оффтоп) https://landing.google.com/sre/book.html free download till 23rd August

Andrey
25.07.2018
13:46:55
удалить все ресурсы. но так, чтоб потом можно было сделать upgrade —reuse-values

Anton
25.07.2018
13:47:54

Dmytro
25.07.2018
13:48:05

Алексей
25.07.2018
13:48:15

Andrey
25.07.2018
13:48:20