
Алексей
13.01.2018
07:58:50

Konstantin
13.01.2018
13:09:38
что-то я начитался и поэкспериментировал с кубернетесом и так и не сложилась у меня картинка в голове... А кто чем деплоит приложения? Я имею в виду, что ямлы накидать - недолго, но это же не рабочий вариант. Надо же, чтобы staging/production, хранить credentials где-то и тд. Короче что-то где можно сделать большую зеленую кнопку для деплоя (и маленькую красную для роллбека)
вроде бы что-то похожее предлагает gitlab ci/cd, но, насколько я понял, это не очень портабельный вариант. Как всё развернуть локально тогда, если заложиться на gitlab?

Сергей
13.01.2018
13:11:08
helm

Google

Сергей
13.01.2018
13:11:22
по неймспейсу на окружение

Konstantin
13.01.2018
13:13:46
тут же его гноили по-моему

Сергей
13.01.2018
13:14:13
тот же ансибл сс джинжой
кто во что гараазд

Konstantin
13.01.2018
13:20:00
в общем нет серебряной пули, спасибо ?

Max
13.01.2018
13:20:31

Сергей
13.01.2018
13:21:14

Konstantin
13.01.2018
13:38:57
https://docs.helm.sh/using_helm/#kubernetes-distribution-guide а то что тут kops не указан, это норм?

Alexey
13.01.2018
13:41:25
Сорри промахнулся

Nick
13.01.2018
13:41:29
не то скопировал)

Alexey
13.01.2018
13:42:28
Не туда вбросил)

Pavel
13.01.2018
17:58:20
Добрый вечер! У меня есть кластер из нескольких raspberry pi. Решил покопать kubernetes (до этого с ним не работал, знаком только с mesos). Поставилось все успешно. Ставлю дашборд. В доке описано, что доступ к нему через прокси. Ну и в гайдах написано, что подключайтесь через ssh туннель, если хотите http доступ с другой машины. https://github.com/kubernetes/dashboard/wiki/Accessing-Dashboard---1.7.X-and-above не мог бы кто-то кинуть ссыль на общепринятую практику? В моем кейсе я бы все же хотел дашборд вывести на http и свой домен, чтобы иметь возможность открыть его с мобилки

Google

twwlf
13.01.2018
18:09:35
Reverse-proxy?

Pavel
13.01.2018
18:22:07
А есть что-то, что из коробки позволяет открыть доступ извне? Например в связке mesos+marathon можно использовать marathon-lb, который регистрирует сервисы в haproxy

Nick
13.01.2018
18:23:42
тоже самое что и edge, если брать вселенную dcos

Pavel
13.01.2018
18:25:15
@gurinderu благодарю!

Nick
13.01.2018
18:25:55
но если есть связка mesos+marathon, то зачем с нее слезать?)

Pavel
13.01.2018
18:28:15
Для общего развития, чтобы понять преимущества и недостатки. Плюс mesos нельзя (без изворотов) поставить на arm

Nick
13.01.2018
18:28:33
зачем такое ставить на арм?

Let Eat
13.01.2018
21:56:28

Alexey
13.01.2018
22:30:55
Привет народ.

Max
14.01.2018
07:49:40

Sergey
14.01.2018
14:14:48

Маннур
14.01.2018
14:43:10
Капли в нос купи

Aleksey
14.01.2018
16:27:19

Konstantin
14.01.2018
18:20:26
Error: lstat /tmp/hostpath-provisioner/pvc-5cf4aaf2-f957-11e7-a280-080027e59c97: no such file or directory
Error syncing pod
кто-нибудь сталкивался с таким в minikube?
я вообще передаю persistence.enabled: false
только толку

Vladimir
14.01.2018
19:55:20
Уже месяц как баг открытый висит на это. Проще всего руками эту папку создать через minikube ssh

Konstantin
15.01.2018
02:36:23
спасибо!

Google

Konstantin
15.01.2018
08:41:35
а поды, которые за сервисами clusterIp должны же друг друга по этим ip видеть?
у меня в ENV на подах адреса прописались все
но не пингуется ни в одну из сторон

Let Eat
15.01.2018
08:54:13

Konstantin
15.01.2018
08:54:29
ок, спасибо

Let Eat
15.01.2018
08:54:48
Но мне всегда было интересно, для чего может понадобится из пода ходить к своему же сервису

Anton
15.01.2018
09:13:06
общая конфигурация наверное, сервис не знает что он сам к себе идет, вот и идет по имени сервиса?

Let Eat
15.01.2018
09:17:25
Если надо получить сервис от самого себя, то 127.0.0.1 тоже сработает
И будет более надежно

Anton
15.01.2018
09:20:32
это если приложение умеет отделять запросы к самому себе и к другим эндпойнтам.
тоесть я примерно только понимаю откуда берутся обращения к самому себе по имени - зачем делать логику какую то по отделению запросов "сам к себе" и всех остальных, если всегда можно по одному адресу тыкать
это только догадка =)

Corleone
15.01.2018
09:25:09
Друзья, всем привет. Подскажите, я не могу понять: node это 1 единица в кластере (т.е. 1 железный сервер) или это 1 виртуальная единица? (т.е. некое подобие виртуалки)

Let Eat
15.01.2018
09:25:47

Maksim
15.01.2018
09:25:48
node это то где стоит kubelet, чем является Машина не важно

Konstantin
15.01.2018
09:26:01
и они друг друга не видят

Corleone
15.01.2018
09:26:29

Admin
ERROR: S client not available

Konstantin
15.01.2018
09:27:00
а нода у меня - minikube, если это важно. и kube-proxy я там не увидел (если он нужен)

Maksim
15.01.2018
09:27:09
всмысле?...Ну бери Heat OpenStack и деплой тода kubelet с правильными настройками

Google

Let Eat
15.01.2018
09:27:23

Maksim
15.01.2018
09:27:24
Или грузи правильною Ось по PXE
ну и т.п.

Let Eat
15.01.2018
09:28:05

Konstantin
15.01.2018
09:28:43
@rossmohax меня смущает, что гугл вообще никаких подобных проблем не показывает.

Corleone
15.01.2018
09:28:53

Let Eat
15.01.2018
09:29:06

Corleone
15.01.2018
09:31:25

Alexander
15.01.2018
10:52:37
Привет знатокам.
Изучаю гайды по поднятию kubernetes
Дошел до плагина сетей, и возник вопрос какой выбрать ?
есть 2 варианта установок
1 на виртуалках с 1 внешним ип
2 на серверах с 2 сегментами внешний + локалка .
Подскажите с какой копать

Konstantin
15.01.2018
10:53:10
@rossmohax короче запустил minikube с driver=none в виртуалке на линуксе и там работает, хотя kube-proxy тоже отсутствует. ?
короче пересоздал всё с нуля и заработало (minikube delete && rm -rf ~/.minikube)

kvaps
15.01.2018
12:40:54
@asigatchov
>2 на серверах с 2 сегментами внешний + локалка
В зависимости что ты хочешь получить конечно, но во втором случае советовал бы попробовать начать с Romana как наиболее простой и непроблемный вариант.
Если хочешь заставить кубер использовать только конкретную подсеть используй --apiserver-advertise-address= опцию, и не забудь добавить все адреса и dns-имена по которым ты хочешь подключаться к куберу в --apiserver-cert-extra-sans
>1 на виртуалках с 1 внешним ип
здесь нужно что-то с шифрованием, weave - самый простой вариант, но имхо не самый продуктивный. Здесь лучше пусть кто-нибудь еще совет даст :)

Алексей
15.01.2018
12:57:55
Подскажите, имеет право на жизнь такая архитектура?
ДЦ1: мастер1, Воркер1, ингресс1
ДЦ2: мастер2, Воркер2, ингресс2
GoogleCloud (или аналог): Мастер3, ингресс3
Мастера с etcd естественно.
Цель - отказоустойчивое решение при падении одного из ДЦ.
ДЦ могут быть как одного так и разных провайдеров.
Чем грозит такая архитектура?

bebebe
15.01.2018
13:01:12
кучей false-positive

Алексей
15.01.2018
13:01:23

bebebe
15.01.2018
13:01:51
в стейтах ресурсов, наример нод
с loadbalancer'ам тоже не понятно будет

Google

Алексей
15.01.2018
13:07:47

Slach
15.01.2018
13:35:35

Sergey
15.01.2018
14:42:20

Алексей
15.01.2018
14:42:52
Например? Я пока не представляю как это должно работать и деплоится