@devops_ru

Страница 3273 из 4568
Aleksandr
14.10.2017
14:41:35
а кстати между делом вопрос - кто как использует screen? и вообще нужно ли - или прямо необходимо перейти на что то другое?
tmux считается более продвинутым последователем, но на самом деле это скорее дело привычки, потому что особенности (в т.ч. неприятные) есть у обоих

EtoZheSlava
14.10.2017
14:44:43
нормальный такой хак, сам его юзал для контейнера jenkins чтобы тот мог например налету сбилдить докер-образ и запустить run-off контейнер

хотя считается что это грубый костыль https://jpetazzo.github.io/2015/09/03/do-not-use-docker-in-docker-for-ci/

Google
Sergey
14.10.2017
15:33:52
вроде dynamic inventory у ansible всегда был в поряде, главное учитывать, что он кэширует где-то IP, можно настроить время “кэша”
Для EC2 он не был в порядке - ломался на разбрасывании EC2-инстансов по группам на основе тегов

EtoZheSlava
14.10.2017
15:35:50
Для EC2 он не был в порядке - ломался на разбрасывании EC2-инстансов по группам на основе тегов
интересно, никогда не встречал такое, всегда срабатывало если используется один тэг Name

Robert
14.10.2017
15:40:10
Подскажите, есть ли какое-то решение, позволяющее автоматически создавать и удалять DNS зоны на slave сервере, при удалении или добавлении их на master сервере? Использую Bind9/

Sergey
14.10.2017
15:51:07
интересно, никогда не встречал такое, всегда срабатывало если используется один тэг Name
тег Name не имеет никакого отношения к автогруппированию инстансов. там, собственно, юзкейс такой: ты указываешь, сколько инстансов определённой роли тебе надо, а дальше оно само

Dmitry
14.10.2017
16:28:36
terraform хорош, у нас вся инфра в aws им разворачивается
Ну а как оно состояние держит?) удалили state файл и все, тю-тю?

Да, ansible+cloudformation хорошо себя показало. Плюс для микросервисов удобно генерировать сами темплейты

bama^boy
14.10.2017
16:29:25
Ну а как оно состояние держит?) удалили state файл и все, тю-тю?
состояние мы храним в s3, но там много бекендов поддерживается. Никто не запрещает делать бэкапы.

bama^boy
14.10.2017
16:30:21
а roll back как?
какой ролбэк? Ты или создал сервер или нет

почитай документацию)

Dmitry
14.10.2017
16:30:55
ну вот, я о том же CF делает безопасные выкатки-роллбеки, change sets итд

Mihail
14.10.2017
16:31:01
Top Players 1. Andrew Kiselev – 31 2. Maxim Lapkovsky – 26 3. Mihail – 16

Google
Aleksandr
14.10.2017
16:31:33
прокрутки только нет, по крайней мере мышью

Alex
14.10.2017
16:32:02
А она ой как нужна иногда

Driver
14.10.2017
16:32:32
и прокрутка есть

по крайней мере в режиме копирования

Aleksandr
14.10.2017
16:32:50
А она ой как нужна иногда
это да, Ctrl+A Esc и езда клавой не всегда удобна

Dmitry
14.10.2017
16:33:03
какой ролбэк? Ты или создал сервер или нет
еще, можно ли удалить группу ресурсов в terraform c полной валидацией? или он унесет ветром созданные вручную ресурсы тоже?

Sergey
14.10.2017
16:33:24
Top Players 1. Andrew Kiselev – 31 2. Maxim Lapkovsky – 26 3. Mihail – 16
это запрос на "пометьте как спам" или что?

bama^boy
14.10.2017
16:33:44
перед удалением можно посмотреть, что удалиться, есть команда plan

про ролбеки это смешно, у тебя есть код в системе контроля версий, всегда можешь откатиться как было, но инфра то уже с нуля создастся, без данных)

Dmitry
14.10.2017
16:36:22
Почему смешно? изменение конфигурации, например, не прокатило

опять удалять?)

bama^boy
14.10.2017
16:37:05
Dmitry
14.10.2017
16:37:22
например, изменяем параметры среды Elastic Beanstalk

bama^boy
14.10.2017
16:37:41
Если api отдал ошибку, то в стейт то, что не изменилось не запишется

Dmitry
14.10.2017
16:37:42
запускаем, а она сломалась. Какие действия с terraform?

ошибка происходит но не сразу

к примеру, создаем 10 ресурсов, 9 создалось а 1 нет, как быть с терраформ в таком случае?

bama^boy
14.10.2017
16:39:06
не в курсе, с Beanstalk не работал, cloudfront, например, долго создается, terraform ждет ответа от api, если api дал ответ и при этом делает что-то асинхронно, то это проблема api

Google
bama^boy
14.10.2017
16:39:18
9 запишутся в стейт, а 1 нет

Dmitry
14.10.2017
16:39:32
а нам надо все 10, иначе система сломана

атомарность нужна. как быть?

bama^boy
14.10.2017
16:39:40
при следующем выполнении plan тебе покажет, что создастся 1 ресурс

Dmitry
14.10.2017
16:41:05
без атомарности реально стремно полагаться на это

TF прикольная штука, но когда нужно чтобы все было живо - я ей не доверяю

плюс отстает функционал от CF, иногда сильно, просто игнорят что-то...

а вот еще, что елси 2 или более человека захотят сделать изменение? там lock какой-то наверняка есть?

Анатолий
14.10.2017
16:42:43
к примеру, создаем 10 ресурсов, 9 создалось а 1 нет, как быть с терраформ в таком случае?
Значит у него в стейте 9 создалось, а 1 нет. Запускаешь ещё раз и он предлагает тебе создать десятую

bama^boy
14.10.2017
16:43:09
bama^boy
14.10.2017
16:43:23
если не доверяешь, не используй)

Dmitry
14.10.2017
16:43:25
Анатолий
14.10.2017
16:43:51
я понимаю. Но я хочу атомарно, либо все либо ничего
А в амазоне можно создать сразу 10 ресурсов, а если что-то засбоит, все уже созданные откатятся?

Анатолий
14.10.2017
16:44:35
да
Это как нагуглить можно? Транзакции?

У меня был такой кейс, где именно это нужно было

bama^boy
14.10.2017
16:45:21
ну вот это, вероятно, имелось под ролл бэком

мне никогда такое не требовалось, т.к. у нас всегда вручную запускают terraform и следят, что происходит

Google
Анатолий
14.10.2017
16:47:06
ну я тоже вышел из положения. если что-то пошло не так - делаю дестрой

Dmitry
14.10.2017
16:47:06
я все запихиваю в CI, поэтому хочу быть 100% уверен в повторяемости

Анатолий
14.10.2017
16:47:35
я все запихиваю в CI, поэтому хочу быть 100% уверен в повторяемости
ну так вызывай дестрой на падении шага эпплая

Admin
ERROR: S client not available

Dmitry
14.10.2017
16:47:42
?

ага, и тютю 99.99%

все же должно работать

Анатолий
14.10.2017
16:48:04
ага, и тютю 99.99%
ну если ты только что создал эти 99.99% - то конечно тютю

а если у тебя есть перманетные ресурсы, то зачем ты их в этом же стейте держишь?

Dmitry
14.10.2017
16:48:20
изменения на живом происходят

ну было ок. потом бац ,надо сделать изменения

Анатолий
14.10.2017
16:48:49
как минимум два стейта: для перманентной/шареной инфраструктуры и для инстанциируемой, которую точно можно всю загасить

Dmitry
14.10.2017
16:48:53
например, увеличить размер диска.

...или во сменить размер инстанса!

Анатолий
14.10.2017
16:50:07
например, увеличить размер диска.
и что ты собираешься роллбечить в случае неудавшейся смены размера диска?

Dmitry
14.10.2017
16:50:19
как что, подключается старый диск

например.

ну диск не уменьшишь обратно, это правда)

bama^boy
14.10.2017
16:50:42
aws уже давно умеет менять размер диска на лету

он или поменяется или нет

Google
Анатолий
14.10.2017
16:51:23
...или во сменить размер инстанса!
с размером инстанса то же самое. ты либо сменил, либо не сменил. роллбечить нечего

Dmitry
14.10.2017
16:51:37
это в идеальных условиях. А в реальных - еще может быть что дисковая системя AWS стухнет

bama^boy
14.10.2017
16:51:39
...или во сменить размер инстанса!
для этого инстанс выключается, т.е. у тебя будет downtime

Анатолий
14.10.2017
16:51:39
не сменил - билд упал - поджигаешь опять

для этого инстанс выключается, т.е. у тебя будет downtime
ну мы для этого просто заводим другой инстанс и деплоим всё туда, после чего переключаемся на него. переключение всегда идёт самым последним шагом так что если хоть что-то засбоило (включая переключение) - то переключения не будет

Dmitry
14.10.2017
16:52:53
с размером инстанса то же самое. ты либо сменил, либо не сменил. роллбечить нечего
в смысле? был m3.large все работало хорошо. теперь нужно начать ужимать ресурсы, запланировали t2.small, вроде на бумаге все ок... запиливаем, оно меняется, но healthcheck не проходит...

bama^boy
14.10.2017
16:53:21
ну я говорю про то, что это нужно делать в ручном режиме и следить

Dmitry
14.10.2017
16:53:30
bama^boy
14.10.2017
16:53:34
а не запустить CI и уйти домой

Dmitry
14.10.2017
16:54:18
доля правды про мониторинг есть, но я говорю о ситуации когда физически невозможно сидеть и чинить косяки руками

Sergey
14.10.2017
16:55:09
Коллеги, вкину свои пять копеек на вентилятор. Для того, чтобы инфраструктура отвечала требованиям повторяемости, надёжности и прочих хороших штук, она (как и осблуживающие инструменты) должна изначально проектироваться с учётом того, что что-то может пойти не так. Соовтетсвенно, при фейлах ситуация развивается не сама собой, а по предусмотренной ветке. А чтобы не впадать в дурную рекурсивную бесконечность - обычно в одном и том же месте более одной неисправности не рассматривается (это из теории наджёности, если я правильно помню).

Aleksey
14.10.2017
16:55:41
Запланировать всё невозможно

bama^boy
14.10.2017
16:55:47
нет если включены rolling updates.
You must stop your Amazon EBS–backed instance before you can change its instance type http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-resize.html

Страница 3273 из 4568