
bebebe
10.05.2018
18:00:45

Nikita
11.05.2018
07:52:11
Привет, скажите, а если я в playbook определяю vars я могу потом через -e переопределить их?

Artur
11.05.2018
07:57:03
да
-e имеет самый высокий приоритет

Google

Nikita
11.05.2018
08:00:42

Asten
11.05.2018
08:57:55
Привет, скажите, а если я в playbook определяю vars я могу потом через -e переопределить их?
Cтаршинство переменных по убыванию:
-----------------------------------
* внешние vars (из командной строки)
* vars задач (указанные в `/roles/<some_name>/tasks/main.yml`)
* vars ролей (`/roles/<some_name>/vars/main.yml`)
* создаваемые set_fact vars
* vars, создаваемые при помощи директив register
* факты хоста
* host_vars окружения (`inventory/{dev/prod/stage}/host_vars/<some_name>`)
* group_vars окружения (`inventory/{dev/prod/stage}/group_vars/<some_name>`)
* общие vars окружения (`group_vars`)
* Значения по умолчанию роли (`/roles/<some_name>/defaults/main.yml`)
из README своего проекта...

Nikita
11.05.2018
08:58:41

Nklya
11.05.2018
08:59:49
в принципе то же самое написано в доке

Алексей
11.05.2018
09:00:21
но тут ин рашен

Asten
11.05.2018
09:00:36
Странно былобы если бы я другое написал)

Nklya
11.05.2018
09:02:51
А вот в шефе 15 уровней приоритетов переменных, так что в ансибле все просто))

Алексей
11.05.2018
09:11:35
ну тут тоже +-

Asten
11.05.2018
09:12:27
тут не все кстати, я еще повырезал то что совсем не юзаю

Pavel
11.05.2018
09:23:52

Nikita
11.05.2018
09:53:18
Подскажите, а можно в awx / tower как-то логин, под которым вошел пользователь, получить и вставить в survey?

Nik
11.05.2018
11:51:52
а сделать yum clean all можно только через cmd?

Google

Artem
11.05.2018
11:52:20
нет, боженька отпиздит.
# ansible ds101 -m shell -a "yum clean all"
ds101.example.com | SUCCESS | rc=0 >>
Loaded plugins: fastestmirror, langpacks, openvz, priorities
Cleaning repos: base epel extras factory openvz-os openvz-updates
: percona-release-noarch percona-release-x86_64 updates
: virtuozzolinux-openvz-factory
Cleaning up everything
Maybe you want: rm -rf /var/cache/yum, to also free up space taken by orphaned data from disabled or removed repos
Cleaning up list of fastest mirrorsRepository epel is listed more than once in the configuration

Nikita
11.05.2018
13:30:47
Кто-нибудь сталкивался с такой проблемой?
https://github.com/ansible/awx/issues/1827

Maksim
11.05.2018
14:14:45
я не уверен что они должны скачиваться
сделай первую роль которая будет их скачивать
ну костыль такой

bebebe
11.05.2018
15:28:53

Nikita
11.05.2018
15:30:24

bebebe
11.05.2018
15:30:38

Nikita
11.05.2018
15:31:24

Maksim
11.05.2018
15:31:56
просто докер по сути внутри не хранит нифига, надо тогда монтировать ~/.ansible куда то
или ты думаешь что он все роли из galaxy будет внутри контейнера пихать ?

bebebe
11.05.2018
15:34:27

Maksim
11.05.2018
15:34:37
ну ты пихал, но не внутрь awx
потому что потом коммитить надо будет изменения

bebebe
11.05.2018
15:35:14

Maksim
11.05.2018
15:35:32
каким образом ?

Google

bebebe
11.05.2018
15:35:39
Ведь роли иногда требуют системных пакетов

Maksim
11.05.2018
15:35:43
это уже кастомный контейнер получает

bebebe
11.05.2018
15:35:50

Maksim
11.05.2018
15:35:54
ну это да
но это не true way

Алексей
11.05.2018
15:36:09
я тоже так делаю
иногда роли хотят и питонящего пипа

Maksim
11.05.2018
15:36:20
мапить .ansible куда нибудь и в путь
аааа, ну тогда только коммитить

bebebe
11.05.2018
15:36:39

Maksim
11.05.2018
15:37:04
но можно его в принципе так то собрать из гита
Хотя сами разработчики awx поддерживают только контейнеры
вроде бы как
инфа НЕ 100%
интересно как дела у Tower
мне уже на любой чих говорят "сделай нам ракету"

bebebe
11.05.2018
15:41:24

Maksim
11.05.2018
15:41:48
у меня вся работа энтузиазм

bebebe
11.05.2018
15:42:51
у меня вся работа энтузиазм
тогда запилите поддержку запуска workerов в виде k8s workflow, это будет намного полезнее и уберет кучу проблем, в том числе и депендами

Maksim
11.05.2018
15:43:21
всё хорошо, но...
Только у меня не любят k8s и докер
Но я втихаря пилю

Google

Maksim
11.05.2018
15:46:36
но докер странная херня
ресурсов для его запуска порой надо больше чем для обычного приложения
тот же самый k8s или rancher запросто сжирают 4 гига оперативки и 4 ядра
это чистая установка
херова туча зависимых сервисов который не пойми для чего

mandrivaman
11.05.2018
20:12:11
господа, нубовопрос в пятницу.
допустим, мне нужно опросить инвентори на предмет открытого порта, выделить все хосты с этим условием в одну группу и с ней уже творить добро и насаждать справедливость. как это лучше реализовать?

Pavel
11.05.2018
20:15:04

Sun
11.05.2018
20:16:44
это чистая установка
Ты когда-нибудь ставил MS Exchange?
От нуля до пятисот пользователей потребление ресурсов вообще не меняется. Потом начинает понемногу расти. Здесь так же: оно раскладывает необходимые сервисы, забирает ресурсы и просто работает.
А сможешь ли ты нагрузить его настолько, чтобы ему этих ресурсов не хватило — уже второй вопрос.

Maksim
11.05.2018
20:17:43
я к тому что тестовый стенд нельзя поднять на хилых виртуалках
а хотелось бы
а вообще пока сижу циску колупаю

Sun
11.05.2018
20:19:06
Да ладно! У меня мастер-ноды в 1-ядерных/512рамы виртуалках
Им тяжко, но мне хватает производительности

Maksim
11.05.2018
20:19:53
rancher os с кубером показывает LA 20

Sun
11.05.2018
20:20:59

Vadim
11.05.2018
20:21:29

Maksim
11.05.2018
20:21:34
тот же coreos rancheros просто не стартует при памяти меньше 1500

mandrivaman
11.05.2018
20:22:09

Vadim
11.05.2018
20:23:35

mandrivaman
11.05.2018
20:24:01

Google

Artem
12.05.2018
05:58:25

mandrivaman
12.05.2018
05:58:46

Artem
12.05.2018
05:59:07
У мандривщиков все наоборот.
Шучу.

bebebe
12.05.2018
10:08:42
@mandrivaman ^^^^

Vadim
12.05.2018
10:09:56

bebebe
12.05.2018
10:11:14

Vadim
12.05.2018
10:11:39
нет, спасибо, еще одного обсуждения какую сеть выбрать я не перенесу

Uncel
12.05.2018
16:04:43

Adil
13.05.2018
06:30:39
Кто нибуть когда нибуть работал с RUNDECK в связке с ansible? кто может помочь