
Fike
14.07.2017
18:51:21
месос же просто фреймворк, реальные оркестраторы - аврора и марафон

Artem
14.07.2017
19:07:57
марафон это часть мезос же
я помню это даже паковал когда был главным за пакеты с
но в дебиан их уже не взяли

Google

Artem
14.07.2017
19:09:10
только ошметки dcos
там джава, её паковать не дай бох каждому

Paul
14.07.2017
19:10:02
слушайте, а как же http://mesos.apache.org/
он же core, нет?
а насчет джавы - там еще и зукипер обязателен


Artem
14.07.2017
19:11:22
ну это ошметки того что там раньше было
DC/OS is created and maintained by Mesosphere, Inc., which offers an enterprise version of DC/OS that includes advanced features for security, compliance, multitenancy, networking and storage, and is backed by 24x7, SLA-governed support. For more information about Mesosphere DC/OS Enterprise, please visit mesosphere.com
всё вкусняхи они убрали с опенсорс и продают.
плюс были прецеденты, когда они патчи не мержили. типа этот функционал в коммерческой версии не нужен, а на опенсорс мы ложили с прибором. там про лдап было что-то
в общем повели себя не очень красиво
In August 2015, it was reported that Microsoftwas in talks to acquire Mesophere. Valuations ranged from $150 million up to $1 billion, but nothing was officially disclosed.[6][7][8]
Another investment round of $73.5 million in March 2016 was led by Hewlett Packard Enterprise, and included Microsoft
мутная история. но они с опенсорс убрали процентов 50 функционала
и этот продукт просто перестал быть конкурентноспособным.

Google

Artem
14.07.2017
19:23:22
кончат как мирантис в итоге, тут к бабке не ходи.

Paul
14.07.2017
19:25:57
а мирантис уже совсем все? или там что-то осталось?

Artem
14.07.2017
19:26:18
ну осталось что-то
на американском рынке.

Paul
14.07.2017
19:27:26
но команду, как я понимаю, распустили?

Artem
14.07.2017
19:28:19
в Москве Украине да
Саратов тоже

Paul
14.07.2017
19:31:06
а у них где-то еще есть техники? в Питере точно все. Раньше звонили-писали каждые пол-года

Artem
14.07.2017
19:31:42
Европа мб
Польша
В Питере вроде и не было
в общем кубернетес пока лучшее решение из всех. и сравнивать его с ранчером например, вообще не стоит. по функционалу ничего общего. swarm делает тоже самое, но тоже функционал так себе.
nomad вообще хз что такое.
есть ещё salt
но он такой
opinionated

bebebe
14.07.2017
19:41:49

Artem
14.07.2017
19:42:47
это для слабаков.
https://docs.saltstack.com/en/latest/
есть ещё cloud foundry paas

Paul
14.07.2017
20:03:46

Google

Paul
14.07.2017
20:04:23

Fike
14.07.2017
21:20:24

Роман
15.07.2017
08:37:49
Подскажите, а как мне открыть определённый порт на каждой ноде, чтобы доступен извне был?
Задача: флюент-под (ну или при помощи сервиса) слушает порт. Докер на каждой ноде отправляет логи в этот порт.

Fike
15.07.2017
11:45:19
Service node port, нет?

Originals
16.07.2017
12:39:41
Хай , всем, много раз уже беру у данного магаза @SecreetStore , хочу сказать одного , магазин ровный , брать можно точно!качество отличное,и кстати слава богу товар не в пакетах а в черных колбах которые не рассыпаются ,запечатаная плотно! оператор делает скидки, всем отличных дней в году?
@SecreetStore

Alexey
16.07.2017
12:47:34
Действительно, где бы такое постить как не в сообществе кубернетеса. Им ведь пользуются только наркоманы :)

redbeard
16.07.2017
12:48:27
опять иранское трудолюбие?

Александр
16.07.2017
13:06:59

Alexey
16.07.2017
13:08:23
Но ведь я тоже здесь... WAIT, OH SHI~

Artemiy
16.07.2017
13:09:47
привет, у кого-то был опыт использования traefik с ACME в HA кластере? столкнулся с тем, что получение сертификатов не работает, если запустить несколько экземпляров traefik. Один экземпляр работает хорошо

Sergey
16.07.2017
14:58:49
Artemiy через consul можно, job дергает серты и кладет в консул для всех подов traefik'а

Fike
16.07.2017
15:00:13
Там создается файл(ы) для подтверждения в .well-known, который LE запросит при запросе на получение/обновление серта, распределенная фс нужна
либо просто каким-то образом роутить .well-known на один и тот же инстанс, и выполнять команду оттуда же

Andrey
16.07.2017
16:19:03

Paul
16.07.2017
16:29:34

Fike
16.07.2017
16:33:38
Понятия не имею

Igor
16.07.2017
16:35:16

Paul
16.07.2017
17:03:12

Khramov
17.07.2017
06:21:13
Люди, а как вы храните все сертификаты для проектов?
А то их уже много, для разых приложений, задумываюсь о каком-то распределенном хранилище для них, но пока не уверен.

Google

Alexey
17.07.2017
06:33:11
У меня hashicorp vault юзается
Есть самописный скрипт, который обновляет и берёт серты(letsencrypt) и кидает в vault

Admin
ERROR: S client not available

Alexey
17.07.2017
06:34:18
Оттуда автоматом берёт прокся и терминирует трафик.

ivan
17.07.2017
06:34:32
kube-lego?

Alexey
17.07.2017
06:35:06
Это очень круто. +1

Dmitry
17.07.2017
06:38:55
А запускаешь по крончику? Мне бы, вот, какое-нибудь решение, которое как и letsencrypt берет серты из cfssl api и апдейтит ингресс сикреты куба. Почти созрел для написания своего решения, но вдруг кто отговорит альтернативой?)
https://github.com/futuresimple/helm-secrets
кто уже пробовал?

Denis
17.07.2017
07:22:53
Кстати насчет ингресс, кто нибудь пробовал запускать ngnix на нодах вне кластера? Допустим есть пара рабочих Nginx+ через которые идет траффик на сервисы вне куба, реально ли сделать так чтобы часть настроек проставлялось ингресс контроллером а часть осталась как была через статичный конфиг?

Dmitry
17.07.2017
07:24:51
Я пробовал, но отказался в сторону полноценного ингресса.

Denis
17.07.2017
07:25:10
а чем это не полноценный ингресс?

Dmitry
17.07.2017
07:25:49
ну.. то что все равно конфиг генерировать придется исходя данный kubeapi
т.е. ты делаешь почти тот же самый ингресс, но снаружи.. вопрос - нафига?) Я не смог себе ответить на этот вопрос. Поэтому к кубовому nginx прикрутил tls auth, подключил апстримы к нему через tls auth и был таков =)

Khramov
17.07.2017
08:47:18
Народ, подскажите.
У нас есть деплои из 1 пода, когда я его обновляю, он удаляет старый и создает новый паралельно, можно ли сделать чтобы сначала создавался новый, а уже после го запуска удалялся старый?

Denis
17.07.2017
08:48:12
да https://kubernetes.io/docs/concepts/workloads/controllers/deployment/
там есть https://kubernetes.io/docs/concepts/workloads/controllers/deployment/#max-unavailable

Khramov
17.07.2017
09:30:11
А можно как-то совместить в env имя?
Т.е. мне нужно передать путь для логов вида /var/lib/bla/logs/<podname>.log
Знаю как сделать просто переменную <podname>, но как совместить хз.
Заранее имя пода неизвестно, оно генерится деплойментом.

Fike
17.07.2017
09:43:54
передать куда, в один из процессов пода?

Google

Khramov
17.07.2017
09:45:31
Записать в env переменную, приложуха оттуда берет данные

Denis
17.07.2017
09:46:31
замаунтить /var/lib/bla/logs а в параметра запуска передать /var/lib/bla/logs/$POD_NAME.log ?

Fike
17.07.2017
09:47:02
проще всего энтрипонитом сделать скрипт, который сам докомпьютит недостающее

Khramov
17.07.2017
09:47:18
А так будет работать, $POD_NAME? Я и так маунчу. Я думал что так не будет работать
Есть тут те кто использует canal со своим кластером etcd?

Pavel
17.07.2017
10:28:53

Роман
17.07.2017
10:46:25

Alexander
17.07.2017
10:53:28

Denis
17.07.2017
11:00:13

Khramov
17.07.2017
11:01:03
Это только часть имени, это я знаю.
Нужно сразу комбинировать, чтобы в переменной можно было указать переменную.
А POD_NAME и так по умолчанию есть

Denis
17.07.2017
14:32:00
Вопрос немного не по теме, кто нибудь знает как в nginx вычислить hash содержимого хедера?

Paul
17.07.2017
14:58:38