@pro_ansible

Страница 503 из 625
Vadim
29.06.2018
17:27:56
котаны, а никто не встречал плагина для сбора coverage в плейбуках? Сколько тасок прошло, сколько изменилось и т.д.?

Vadim
29.06.2018
17:41:14
За это же можно сделать через output plugin, правильно?
я не уверен что все методы для этого есть, потому было бы интересно узнать весь каталог велосипедов

Nklya
29.06.2018
18:26:00
Я не видел(

Google
Vadim
29.06.2018
18:27:04
подозреваю что придется всё же велосипедить

Nklya
29.06.2018
18:28:56
Красиво было бы впилить такое в awx

Asomir
29.06.2018
18:36:07
Roman
29.06.2018
21:05:53
котаны, а никто не встречал плагина для сбора coverage в плейбуках? Сколько тасок прошло, сколько изменилось и т.д.?
Вот так что ли? Summary for host.tld ------------ Succeeded: 4 Failed: 0 ------------ Total states run: 4 Total run time: 2.522 s ------------------------------------------- Summary ------------------------------------------- # of minions targeted: 1 # of minions returned: 1 # of minions that did not return: 0 # of minions with errors: 0 -------------------------------------------

Maxim
30.06.2018
07:34:38
всем привет. народ подскажите как это называется суть есть несколько дедиков. надо их объединить в один с учетом того что память будет общая. хранилище тоже должно быть общее. нгинкс. сервера-приложений и базы. понимаю что чат про ансибле но может повезет.... кто нить с кластерами серверов с шарой работал...

Alexander
30.06.2018
07:39:19
м-м, общее что будет-то? данные на диске?

или дедупликация памяти нужна, т.к. на всех не хватает?

Maxim
30.06.2018
07:51:43
и данные и память должны, я в этих вещах не силен поэтому мне хоть название узнать....суть есть диск 10 и 20 гб на двух серверах например в итоге мы должны иметь виртуальную шару на 30 гб плюс минус. и память.... те по сути система сама должна раскидывать воркеры по серверам если нагрузка идет большая или памяти на одном не хватает...например на первом сервере осталось 200 мб авмяти то все запросы кидаются на второй сервер...те по сути это аля haproxy/celery ... первая запросы балансирует... а вторая например если воркеры жрут много процессора/памяти прибивает их - чтобы сервер не сдох... ну эт с очередями типа сравнение...

оба нужны

Alexander
30.06.2018
07:54:45
я не думаю, что это тема для ансибла ?

Google
Vasiliy
30.06.2018
07:57:46
Подскажите, как правильно сделать. Есть некая роль https://github.com/DavidWittman/ansible-redis Но мне в ней не нравится таск install.yml Моё текущее локальное решение - заменить его в main.yml на install_custom.yml в котором я делаю установку. Что я хочу: импортировать роль, переопределить task main.yml или install.yml Я правильно понимаю, что через Import/include я этого сделать не смогу? Как вы наследуете чужие роли ?

Nklya
30.06.2018
08:01:34
цеф это про хранилище, а максим хочет что-то типа HPC кластера на коленке

Lev
30.06.2018
08:01:51
Nutanix?

Maxim
30.06.2018
08:02:30
да правильно.. церп это только хранилище...оно поможет а как остальное городить это вопрос

Lev
30.06.2018
08:03:18
А зачем такое городить?

Artem
30.06.2018
08:07:53
OOM nom nom

Maxim
30.06.2018
08:08:12
А зачем такое городить?
ну вообще типа издержки сократить.... я изначально думал что есть какое то опенсор решение где можно было бы ноды подключать по мере необходимости ...

Artem
30.06.2018
08:08:45
Кубернетес, да)

Vasiliy
30.06.2018
08:09:31
Мониторишь, если триггер сработал - подключаешь новую vm Логику выбора сервера ты сейчас сам описал :) Можно попробовать rancher прикрутить с кастомным сервисом выбора сервера для docker-контейнера. Кубернетес еще не пробовал - может там лучше это сделано.

Vadim
30.06.2018
08:10:34
"подключаешь новую vm" там не так просто сделать, но если есть AWS со скейлгруппами, то получится

Vadim
30.06.2018
08:11:05
В ранчере трудно новую vm сделать ?
ничего не знаю про ранчер

Vadim
30.06.2018
08:11:44
я ж говорил, что "понабегут с амазоном"
ну понабежите с кастомным оператором, который запустит хоть на опенстаке

Google
Alexander
30.06.2018
08:11:44
Vasiliy
30.06.2018
08:11:46
да, да, да
А оно прям умеет нормально выбирать хост на котором нужно запустить vm ?

Vasiliy
30.06.2018
08:14:37
это можно сделать самому, хоть на условно-бесплатных openstack-ах каких-нибудь, хоть на платном типа vmware или hyper-v
А можно ссылочку на пример этой логики ? В ранчере тоже можно свою логику, но пример из кубера я бы тоже посмотрел - видимо, придётся выбирать - кубер или openstack

Alexander
30.06.2018
08:17:16
ссылочку не дам, увы. наверное, в инете выложены примеры. если вкратце, то вы собираете метрики и на их основе делаете описательную/кумулятивную, которая мониторится вашим приложением, управляющим заведением/уничтожением instance-ов

Vasiliy
30.06.2018
08:17:52
Да хотя бы ключевое слово по которому гуглить :) Раз уж выходные - почитал бы.

Alexander
30.06.2018
08:17:57
и в случае того же куба это выливается в то, как вы их собирать будете

оох, ща ?

наверное, отсюда - https://kubernetes.io/blog/2017/05/kubernetes-monitoring-guide/

но, сразу скажу, там косяков в плане цифр, отдаваемых ядром - море

Vadim
30.06.2018
08:20:04
https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler

Alexander
30.06.2018
08:20:08
и они меняются

Vasiliy
30.06.2018
08:21:54
Спасибо! Можете еще про наследование ролей ansible рассказать - как вы это делаете ?

Подскажите, как правильно сделать. Есть некая роль https://github.com/DavidWittman/ansible-redis Но мне в ней не нравится таск install.yml Моё текущее локальное решение - заменить его в main.yml на install_custom.yml в котором я делаю установку. Что я хочу: импортировать роль, переопределить task main.yml или install.yml Я правильно понимаю, что через Import/include я этого сделать не смогу? Как вы наследуете чужие роли ?

Ну и пока далеко от кубера не ушли - на чём вы файлики держите - ceph, glusterfs, что-то иное ?

Maxim
30.06.2018
08:24:16
А чего хочется и с каким уровнем автоматизации ? docker или kvm ?
питон ест да еще много чего... суть то в чем что хотелось бы чтобы счета росли по мере окупаемости. при этом была возможность быстрого масшабирования и не таскать настройки серверов туда сюда... я с докером дело немного имел....вообще еще вагрант есть тоже - основной стек это питон.пхп.редис.постресс.нгинкс ...часть на докере часть без всего ну и пару балансеров....да и докер это грубо говоря токо поставка а как оно внутри будет крутитться это вопрос

Alexander
30.06.2018
08:25:45
всё упирается в то, что хотите вы всё в контейнеры или нет

Google
Alexander
30.06.2018
08:26:11
если да - готовьте деньги на хотя бы 10G и SSD на SDS

Alexander
30.06.2018
08:27:06
иначе - постгря через patroni на физических машинах, остальное - в кластере с shared storage

а там - играйтесь, как хотите ?

Vasiliy
30.06.2018
08:27:47
иначе - постгря через patroni на физических машинах, остальное - в кластере с shared storage
elastic тоже вынести стоит, разве нет ? Там тоже дискового io достаточно.

Alexander
30.06.2018
08:28:23
да, стоит

сколько там поток будет?

Vadim
30.06.2018
08:28:41
ну патрони сами заландовцы велели в кубернетес совать, главное local provisioner / hostPath

Admin
ERROR: S client not available

Alexander
30.06.2018
08:29:08
у меня какое-то время оно вообще жило на ceph-е под kvm-ом

Vasiliy
30.06.2018
08:29:15
А хрен его знает, но мне его терять никак нельзя, поэтому на kvm redis тоже выношу, но тут я не настолько уверен :)

У меня пока небольшая нагрузка. Поэтому я больше слушаю - как лучше сделать.

Vasiliy
30.06.2018
08:31:22
1000 точно будет. остальное - будет видно.

2000 даже :) По первой прикидке.

Maxim
30.06.2018
08:34:35
щас будет идиотский вопрос...кто нить с hadoop дело имел ? насколько я понял у него тоже некое подобие церпа есть - хотя могу и ошибаться.. в любом случае всем огромнейшее спасибо парни.. буду копать дальше...

Google
Maxim
30.06.2018
08:46:36
ок спасибо

Timur
30.06.2018
15:45:21
А это точно чат про ансибл? ?

Egor
30.06.2018
16:20:22
Видимо кроме Python, Алексей Анатольевич решил ещё и Ansible выучить)

Timur
30.06.2018
16:28:14
Ну, дык, ансибл же на питоне написан :)

Alexander
30.06.2018
16:35:05
Митинг на Тверской за ансбил против солта?

Timur
30.06.2018
16:43:14
против шефа :)

Vadim
30.06.2018
16:52:55
Митинг на Тверской за ансбил против солта?
против марионетки ж, то есть Puppet

Alexander
30.06.2018
17:00:36
Ну вот опять раскол в оппозиции

Ruslan
30.06.2018
17:48:01
камрады, подскажите, как файлы сертификатов подсунуть в инвентори?

судя по доке, файлы подкладываются в роли

Vasiliy
30.06.2018
17:53:04
Ruslan
30.06.2018
17:53:23
не, я про другое

Vasiliy
30.06.2018
17:53:34
Вопроос в том - где у тебя сейчас лежат сертификаты.

Ruslan
30.06.2018
17:54:06
мне кажется логичным для определённого инвентори сгенерировать сертификаты для SSL и выбирая нужный инвентори подсовывать на соответствующие севера правильные сертификаты

сейчас в role/docker/files - как-то так

но тогда роль пихает в любой инвентори одни и те же сертификаты

Vasiliy
30.06.2018
17:56:30
то есть - если в inventory есть переменная с сертификатом - подкладывать, а если нет - то не подкладывать ?

Ruslan
30.06.2018
17:59:33
нет, просто брать файлы из инвентори, так можно?

ведь инвентори - это описание группы серверов, с которыми будет работать плейбук, логично сертификаты держать в инвентори

но возможно я не прав и есть более логичный способ

Sergey
30.06.2018
19:35:54
нет, просто брать файлы из инвентори, так можно?
Если сертификаты хранить внутри переменных (что такое себе) - то да. А вообще штатный вариант расположения файлов - в файлах роли.

Страница 503 из 625