Алексей
13.01.2018
07:58:50
Konstantin
13.01.2018
13:09:38
что-то я начитался и поэкспериментировал с кубернетесом и так и не сложилась у меня картинка в голове... А кто чем деплоит приложения? Я имею в виду, что ямлы накидать - недолго, но это же не рабочий вариант. Надо же, чтобы staging/production, хранить credentials где-то и тд. Короче что-то где можно сделать большую зеленую кнопку для деплоя (и маленькую красную для роллбека)
вроде бы что-то похожее предлагает gitlab ci/cd, но, насколько я понял, это не очень портабельный вариант. Как всё развернуть локально тогда, если заложиться на gitlab?
Сергей
13.01.2018
13:11:08
helm
Google
Сергей
13.01.2018
13:11:22
по неймспейсу на окружение
Konstantin
13.01.2018
13:13:46
тут же его гноили по-моему
Сергей
13.01.2018
13:14:13
тот же ансибл сс джинжой
кто во что гараазд
Konstantin
13.01.2018
13:20:00
в общем нет серебряной пули, спасибо ?
Max
13.01.2018
13:20:31
Сергей
13.01.2018
13:21:14
Konstantin
13.01.2018
13:38:57
https://docs.helm.sh/using_helm/#kubernetes-distribution-guide а то что тут kops не указан, это норм?
Alexey
13.01.2018
13:41:25
Сорри промахнулся
Nick
13.01.2018
13:41:29
не то скопировал)
Alexey
13.01.2018
13:42:28
Не туда вбросил)
Pavel
13.01.2018
17:58:20
Добрый вечер! У меня есть кластер из нескольких raspberry pi. Решил покопать kubernetes (до этого с ним не работал, знаком только с mesos). Поставилось все успешно. Ставлю дашборд. В доке описано, что доступ к нему через прокси. Ну и в гайдах написано, что подключайтесь через ssh туннель, если хотите http доступ с другой машины. https://github.com/kubernetes/dashboard/wiki/Accessing-Dashboard---1.7.X-and-above не мог бы кто-то кинуть ссыль на общепринятую практику? В моем кейсе я бы все же хотел дашборд вывести на http и свой домен, чтобы иметь возможность открыть его с мобилки
Google
twwlf
13.01.2018
18:09:35
Reverse-proxy?
Pavel
13.01.2018
18:22:07
А есть что-то, что из коробки позволяет открыть доступ извне? Например в связке mesos+marathon можно использовать marathon-lb, который регистрирует сервисы в haproxy
Nick
13.01.2018
18:23:42
тоже самое что и edge, если брать вселенную dcos
Pavel
13.01.2018
18:25:15
@gurinderu благодарю!
Nick
13.01.2018
18:25:55
но если есть связка mesos+marathon, то зачем с нее слезать?)
Pavel
13.01.2018
18:28:15
Для общего развития, чтобы понять преимущества и недостатки. Плюс mesos нельзя (без изворотов) поставить на arm
Nick
13.01.2018
18:28:33
зачем такое ставить на арм?
Let Eat
13.01.2018
21:56:28
Alexey
13.01.2018
22:30:55
Привет народ.
Max
14.01.2018
07:49:40
Sergey
14.01.2018
14:14:48
Маннур
14.01.2018
14:43:10
Капли в нос купи
Aleksey
14.01.2018
16:27:19
Konstantin
14.01.2018
18:20:26
Error: lstat /tmp/hostpath-provisioner/pvc-5cf4aaf2-f957-11e7-a280-080027e59c97: no such file or directory
Error syncing pod
кто-нибудь сталкивался с таким в minikube?
я вообще передаю persistence.enabled: false
только толку
Vladimir
14.01.2018
19:55:20
Уже месяц как баг открытый висит на это. Проще всего руками эту папку создать через minikube ssh
Konstantin
15.01.2018
02:36:23
спасибо!
Google
Konstantin
15.01.2018
08:41:35
а поды, которые за сервисами clusterIp должны же друг друга по этим ip видеть?
у меня в ENV на подах адреса прописались все
но не пингуется ни в одну из сторон
Let Eat
15.01.2018
08:54:13
Konstantin
15.01.2018
08:54:29
ок, спасибо
Let Eat
15.01.2018
08:54:48
Но мне всегда было интересно, для чего может понадобится из пода ходить к своему же сервису
Anton
15.01.2018
09:13:06
общая конфигурация наверное, сервис не знает что он сам к себе идет, вот и идет по имени сервиса?
Let Eat
15.01.2018
09:17:25
Если надо получить сервис от самого себя, то 127.0.0.1 тоже сработает
И будет более надежно
Anton
15.01.2018
09:20:32
это если приложение умеет отделять запросы к самому себе и к другим эндпойнтам.
тоесть я примерно только понимаю откуда берутся обращения к самому себе по имени - зачем делать логику какую то по отделению запросов "сам к себе" и всех остальных, если всегда можно по одному адресу тыкать
это только догадка =)
Corleone
15.01.2018
09:25:09
Друзья, всем привет. Подскажите, я не могу понять: node это 1 единица в кластере (т.е. 1 железный сервер) или это 1 виртуальная единица? (т.е. некое подобие виртуалки)
Let Eat
15.01.2018
09:25:47
Maksim
15.01.2018
09:25:48
node это то где стоит kubelet, чем является Машина не важно
Konstantin
15.01.2018
09:26:01
и они друг друга не видят
Corleone
15.01.2018
09:26:29
Konstantin
15.01.2018
09:27:00
а нода у меня - minikube, если это важно. и kube-proxy я там не увидел (если он нужен)
Maksim
15.01.2018
09:27:09
всмысле?...Ну бери Heat OpenStack и деплой тода kubelet с правильными настройками
Let Eat
15.01.2018
09:27:23
Google
Maksim
15.01.2018
09:27:24
Или грузи правильною Ось по PXE
ну и т.п.
Let Eat
15.01.2018
09:28:05
Konstantin
15.01.2018
09:28:43
@rossmohax меня смущает, что гугл вообще никаких подобных проблем не показывает.
Corleone
15.01.2018
09:28:53
Let Eat
15.01.2018
09:29:06
Corleone
15.01.2018
09:31:25
Alexander
15.01.2018
10:52:37
Привет знатокам.
Изучаю гайды по поднятию kubernetes
Дошел до плагина сетей, и возник вопрос какой выбрать ?
есть 2 варианта установок
1 на виртуалках с 1 внешним ип
2 на серверах с 2 сегментами внешний + локалка .
Подскажите с какой копать
Konstantin
15.01.2018
10:53:10
@rossmohax короче запустил minikube с driver=none в виртуалке на линуксе и там работает, хотя kube-proxy тоже отсутствует. ?
короче пересоздал всё с нуля и заработало (minikube delete && rm -rf ~/.minikube)
kvaps
15.01.2018
12:40:54
@asigatchov
>2 на серверах с 2 сегментами внешний + локалка
В зависимости что ты хочешь получить конечно, но во втором случае советовал бы попробовать начать с Romana как наиболее простой и непроблемный вариант.
Если хочешь заставить кубер использовать только конкретную подсеть используй --apiserver-advertise-address= опцию, и не забудь добавить все адреса и dns-имена по которым ты хочешь подключаться к куберу в --apiserver-cert-extra-sans
>1 на виртуалках с 1 внешним ип
здесь нужно что-то с шифрованием, weave - самый простой вариант, но имхо не самый продуктивный. Здесь лучше пусть кто-нибудь еще совет даст :)
Алексей
15.01.2018
12:57:55
Подскажите, имеет право на жизнь такая архитектура?
ДЦ1: мастер1, Воркер1, ингресс1
ДЦ2: мастер2, Воркер2, ингресс2
GoogleCloud (или аналог): Мастер3, ингресс3
Мастера с etcd естественно.
Цель - отказоустойчивое решение при падении одного из ДЦ.
ДЦ могут быть как одного так и разных провайдеров.
Чем грозит такая архитектура?
bebebe
15.01.2018
13:01:12
кучей false-positive
Алексей
15.01.2018
13:01:23
bebebe
15.01.2018
13:01:51
в стейтах ресурсов, наример нод
с loadbalancer'ам тоже не понятно будет
Алексей
15.01.2018
13:07:47
Google
Slach
15.01.2018
13:35:35
Sergey
15.01.2018
14:42:20
Алексей
15.01.2018
14:42:52
Например? Я пока не представляю как это должно работать и деплоится