@kubernetes_ru

Страница 383 из 958
Konstantin
13.01.2018
13:09:38
что-то я начитался и поэкспериментировал с кубернетесом и так и не сложилась у меня картинка в голове... А кто чем деплоит приложения? Я имею в виду, что ямлы накидать - недолго, но это же не рабочий вариант. Надо же, чтобы staging/production, хранить credentials где-то и тд. Короче что-то где можно сделать большую зеленую кнопку для деплоя (и маленькую красную для роллбека)

вроде бы что-то похожее предлагает gitlab ci/cd, но, насколько я понял, это не очень портабельный вариант. Как всё развернуть локально тогда, если заложиться на gitlab?

Сергей
13.01.2018
13:11:08
helm

Google
Сергей
13.01.2018
13:11:22
по неймспейсу на окружение

Konstantin
13.01.2018
13:13:46
тут же его гноили по-моему

Сергей
13.01.2018
13:14:13
тут же его гноили по-моему
можно то же самое без хельма каким-то своим темплейтомм

тот же ансибл сс джинжой

кто во что гараазд

Konstantin
13.01.2018
13:20:00
в общем нет серебряной пули, спасибо ?

Сергей
13.01.2018
13:21:14
Konstantin
13.01.2018
13:38:57
https://docs.helm.sh/using_helm/#kubernetes-distribution-guide а то что тут kops не указан, это норм?

Alexey
13.01.2018
13:41:25
Сорри промахнулся

Nick
13.01.2018
13:41:29
не то скопировал)

Alexey
13.01.2018
13:42:28
Не туда вбросил)

Pavel
13.01.2018
17:58:20
Добрый вечер! У меня есть кластер из нескольких raspberry pi. Решил покопать kubernetes (до этого с ним не работал, знаком только с mesos). Поставилось все успешно. Ставлю дашборд. В доке описано, что доступ к нему через прокси. Ну и в гайдах написано, что подключайтесь через ssh туннель, если хотите http доступ с другой машины. https://github.com/kubernetes/dashboard/wiki/Accessing-Dashboard---1.7.X-and-above не мог бы кто-то кинуть ссыль на общепринятую практику? В моем кейсе я бы все же хотел дашборд вывести на http и свой домен, чтобы иметь возможность открыть его с мобилки

Google
twwlf
13.01.2018
18:09:35
Reverse-proxy?

Pavel
13.01.2018
18:22:07
А есть что-то, что из коробки позволяет открыть доступ извне? Например в связке mesos+marathon можно использовать marathon-lb, который регистрирует сервисы в haproxy

Pavel
13.01.2018
18:25:15
@gurinderu благодарю!

Nick
13.01.2018
18:25:55
но если есть связка mesos+marathon, то зачем с нее слезать?)

Pavel
13.01.2018
18:28:15
Для общего развития, чтобы понять преимущества и недостатки. Плюс mesos нельзя (без изворотов) поставить на arm

Nick
13.01.2018
18:28:33
зачем такое ставить на арм?

Let Eat
13.01.2018
21:56:28
helm решает все что вы написали
ничего он не решает. особенно корректный роллбэк вообще за пределами его способностей.

Alexey
13.01.2018
22:30:55
Привет народ.

Max
14.01.2018
07:49:40
ничего он не решает. особенно корректный роллбэк вообще за пределами его способностей.
Почему вы так считаете? Возможно зависит от связей и реализации сервисов, когда не достаточно просто вернуть старый релиз

Маннур
14.01.2018
14:43:10
Капли в нос купи

Aleksey
14.01.2018
16:27:19
Konstantin
14.01.2018
18:20:26
Error: lstat /tmp/hostpath-provisioner/pvc-5cf4aaf2-f957-11e7-a280-080027e59c97: no such file or directory Error syncing pod

кто-нибудь сталкивался с таким в minikube?

я вообще передаю persistence.enabled: false

только толку

Vladimir
14.01.2018
19:55:20
Уже месяц как баг открытый висит на это. Проще всего руками эту папку создать через minikube ssh

Konstantin
15.01.2018
02:36:23
спасибо!

Google
Konstantin
15.01.2018
08:41:35
а поды, которые за сервисами clusterIp должны же друг друга по этим ip видеть?

у меня в ENV на подах адреса прописались все

но не пингуется ни в одну из сторон

Let Eat
15.01.2018
08:54:13
а поды, которые за сервисами clusterIp должны же друг друга по этим ip видеть?
Если поды ходят сами к себе по clusterip И при этом находятся на одной ноде, то надо проверить опцию kubelet hairpin mode, она как раз для этого

Konstantin
15.01.2018
08:54:29
ок, спасибо

Let Eat
15.01.2018
08:54:48
Но мне всегда было интересно, для чего может понадобится из пода ходить к своему же сервису

Anton
15.01.2018
09:13:06
общая конфигурация наверное, сервис не знает что он сам к себе идет, вот и идет по имени сервиса?

Let Eat
15.01.2018
09:17:25
Если надо получить сервис от самого себя, то 127.0.0.1 тоже сработает

И будет более надежно

Anton
15.01.2018
09:20:32
это если приложение умеет отделять запросы к самому себе и к другим эндпойнтам. тоесть я примерно только понимаю откуда берутся обращения к самому себе по имени - зачем делать логику какую то по отделению запросов "сам к себе" и всех остальных, если всегда можно по одному адресу тыкать

это только догадка =)

Corleone
15.01.2018
09:25:09
Друзья, всем привет. Подскажите, я не могу понять: node это 1 единица в кластере (т.е. 1 железный сервер) или это 1 виртуальная единица? (т.е. некое подобие виртуалки)

Maksim
15.01.2018
09:25:48
node это то где стоит kubelet, чем является Машина не важно

Konstantin
15.01.2018
09:26:01
и они друг друга не видят

Corleone
15.01.2018
09:26:29
node это то где стоит kubelet, чем является Машина не важно
можно ли как-то провести скалинг нод в автоматическом режиме (не aws)?

Konstantin
15.01.2018
09:27:00
а нода у меня - minikube, если это важно. и kube-proxy я там не увидел (если он нужен)

Maksim
15.01.2018
09:27:09
всмысле?...Ну бери Heat OpenStack и деплой тода kubelet с правильными настройками

Let Eat
15.01.2018
09:27:23
и они друг друга не видят
А у вас другой случай, у кого то такое было но не помню чтобы решилось.

Google
Maksim
15.01.2018
09:27:24
Или грузи правильною Ось по PXE

ну и т.п.

Let Eat
15.01.2018
09:28:05
Konstantin
15.01.2018
09:28:43
@rossmohax меня смущает, что гугл вообще никаких подобных проблем не показывает.

Corleone
15.01.2018
09:28:53
Или грузи правильною Ось по PXE
смотрю в сторону coreOS на голом железе

Let Eat
15.01.2018
09:29:06
можно ли как-то провести скалинг нод в автоматическом режиме (не aws)?
Если вы знаете как в автоматическом режиме добыть вычислительных мощностей, то да.

смотрю в сторону coreOS на голом железе
Хорошее дело. Гляньте typhoon для примера иили родственные ему examples в matchbox

@rossmohax меня смущает, что гугл вообще никаких подобных проблем не показывает.
kube-proxy нужен, ищите куда он пропал :) можно начать со списка мертвых контейнеров в docker ps -a

Alexander
15.01.2018
10:52:37
Привет знатокам. Изучаю гайды по поднятию kubernetes Дошел до плагина сетей, и возник вопрос какой выбрать ? есть 2 варианта установок 1 на виртуалках с 1 внешним ип 2 на серверах с 2 сегментами внешний + локалка . Подскажите с какой копать

Konstantin
15.01.2018
10:53:10
@rossmohax короче запустил minikube с driver=none в виртуалке на линуксе и там работает, хотя kube-proxy тоже отсутствует. ?

короче пересоздал всё с нуля и заработало (minikube delete && rm -rf ~/.minikube)

kvaps
15.01.2018
12:40:54
@asigatchov >2 на серверах с 2 сегментами внешний + локалка В зависимости что ты хочешь получить конечно, но во втором случае советовал бы попробовать начать с Romana как наиболее простой и непроблемный вариант. Если хочешь заставить кубер использовать только конкретную подсеть используй --apiserver-advertise-address= опцию, и не забудь добавить все адреса и dns-имена по которым ты хочешь подключаться к куберу в --apiserver-cert-extra-sans

>1 на виртуалках с 1 внешним ип здесь нужно что-то с шифрованием, weave - самый простой вариант, но имхо не самый продуктивный. Здесь лучше пусть кто-нибудь еще совет даст :)

Алексей
15.01.2018
12:57:55
Подскажите, имеет право на жизнь такая архитектура? ДЦ1: мастер1, Воркер1, ингресс1 ДЦ2: мастер2, Воркер2, ингресс2 GoogleCloud (или аналог): Мастер3, ингресс3 Мастера с etcd естественно. Цель - отказоустойчивое решение при падении одного из ДЦ. ДЦ могут быть как одного так и разных провайдеров. Чем грозит такая архитектура?

bebebe
15.01.2018
13:01:12
кучей false-positive

Алексей
15.01.2018
13:01:23
кучей false-positive
В чём именно?

bebebe
15.01.2018
13:01:51
в стейтах ресурсов, наример нод

с loadbalancer'ам тоже не понятно будет

Алексей
15.01.2018
13:07:47
в стейтах ресурсов, наример нод
с чем связано? С задержками в репликации etcd?

Google
Slach
15.01.2018
13:35:35
в стейтах ресурсов, наример нод
а как правильно?? через federation ?https://kubernetes.io/docs/concepts/cluster-administration/federation/ ?

Алексей
15.01.2018
14:42:52
Например? Я пока не представляю как это должно работать и деплоится

Страница 383 из 958