George
17.06.2019
13:21:30
крон не умеет в зависимости
крон не умеет шедюлить чаще, чем раз в минуту
этого достаточно?
Dmitrii
17.06.2019
13:24:33
Ну нам не нужны зависимости, и не надо чаще раза в минуту
Google
Dmitrii
17.06.2019
13:24:43
Как видишь все индивидуально )
George
17.06.2019
13:25:15
несомненно
Say_No_Name
17.06.2019
14:18:03
George
17.06.2019
14:20:52
Ivanzor
17.06.2019
14:43:18
подскажите плиз в чем трабла
поднимаю контейнер для статы nginxa
docker run -p 9113:9113 fish/nginx-exporter -nginx.scrape_uri=http://x.x.x.x/nginx_status
стату отдает, все хорошо, но когда запускаю его в compose то почему-то данные он хочет брать из локали
compose
nginx_exporter:
image: fish/nginx-exporter
container_name: nginx-exporter
ports:
- '9113:9113'
command:
- 'nginx.scrape_uri=http://x.x.x.x/nginx_status'
Пробовал compose 3 / 3.1 / 2
Как будто он не понимают мой аргумент, хоть проверил через inspect и он там есть.
George
17.06.2019
14:43:57
Ivanzor
17.06.2019
14:44:36
Что значит локаль компоуз?
вот ошибка
```
time="2019-06-17T14:27:08Z" level=error msg="Error scraping nginx: Error scraping nginx: Get http://localhost/nginx_status: dial tcp 127.0.0.1:80: getsockopt: connection refused" source="nginx_exporter.go:170"
```
В ней видно что http://localhost/nginx_status
George
17.06.2019
14:45:32
https://m.habr.com/ru/company/southbridge/blog/329138/
Alexander
17.06.2019
16:08:20
Кто нибудь здесь слышал о каком нибудь боте для интеграции между гитхабом/гитлабом и джирой? Например для автоматического проставления версий, закрытия тасок, и так далее
Nikita
17.06.2019
16:16:49
https://docs.gitlab.com/ee/user/project/integrations/jira.html оф.дока гитлаба по интеграции с джирой
George
17.06.2019
16:39:18
@ru_gitlab
Google
Sergey
17.06.2019
17:15:46
Павел
18.06.2019
07:35:40
Товарищи, скажите, пожалуйста, а команда docker commit коммитит то, что есть в Волюмах, автоматически генерированных? https://docs.docker.com/engine/reference/commandline/save/ тут пишут, что в имидж не попадает то, что во внешних прокинутых волюмах, но относится ли это к волюму автоматически созданному докером, когда я делаю docker run без Указания какого-то волюма?
George
18.06.2019
07:38:40
Товарищи, скажите, пожалуйста, а команда docker commit коммитит то, что есть в Волюмах, автоматически генерированных? https://docs.docker.com/engine/reference/commandline/save/ тут пишут, что в имидж не попадает то, что во внешних прокинутых волюмах, но относится ли это к волюму автоматически созданному докером, когда я делаю docker run без Указания какого-то волюма?
да, относится и к безымянному вольюму
т.е. он в образ не закоммитится (очевидно)
Павел
18.06.2019
07:51:37
То есть, я так понимаю, что чтобы поставлять разработчикам некий кастомный образ с данными из волюма, надо посталвять им и образ и архив волюма. печаль.
George
18.06.2019
07:54:37
ну, как бы логично
а зачем тебе ?
если у тебя в вольюме данные, то логично его наполнять при первом старте контейнера, не?
Павел
18.06.2019
07:57:05
ну, как бы логично
Ну у меня есть разрабы, которые над жирой что-то там пишут. И нужен образ, в котором уже настреон проект, есть некоторые юзеры, плагины, бизнес-процессы, вот это все. А это все кроме внутренней базы данных, еще и в файлах в волюме лежит. То есть скриптами в докер-файле всю хрень не прописать, а надо руками протыкать и настроить.
George
18.06.2019
08:02:21
ну, т.е. это типа фикстуры получается?
ну, я повторюсь - наполняй вольюм при старте контейнера
либо ты идешь в направлении полностью своего образа
это не сложно
Павел
18.06.2019
08:08:47
ну, т.е. это типа фикстуры получается?
Ну что-то вроде того. На совсем понимаю, про наполнение волюма при старте контейнера. Я не вижу пути аавтоматизировать это кроме как распространять образ с архивом волюма и перед стартом контейнера разархивировать архив волюма в /var/lib/docker.
George
18.06.2019
08:10:18
Просто ты делаешь стартовый скрипт внутри контейнера
В нем условный cp /home/fixture /path_to_where_volume_mounted
Посмотри на контейнер с постгресом - как он бд инициализирует
Павел
18.06.2019
08:11:54
Блин, точно, есть же add. Точно!
Google
George
18.06.2019
08:12:29
Вячеслав
18.06.2019
08:16:13
какой сигнал посылает docker приложению при обновлении сервиса?
kill -9?
George
18.06.2019
08:17:15
Сначала term потом kill
Или наоборот
Не помню
Вячеслав
18.06.2019
08:23:51
а както изменить можно?
из оркестратора, или мб в докер-композе
George
18.06.2019
08:26:38
что изменить?
у тебя все четенько - сначала один сигнал, потом докер ждет, потом второй, чтоб наверняка
Вячеслав
18.06.2019
08:27:10
изменить сигнал для завершения
сейчас проверили - конейтнеру приходит kill
George
18.06.2019
08:28:07
нет, никак
Terry
18.06.2019
08:28:16
Доброе утро всем!
Какое-то жутко аномальное поведение наблюдаю в последние несколько дней с кластером Swarm. Было 3 менеджер ноды, столько-же слейвов, все прекрасно работало, репликация несколько раз отрабатывала и сама переезжала на другого менеджера, когда отваливался Leader. Но потом, сервисы начали хуевничать и ничего не оставалось как плавно ребутать ноды, так как другого способа решить возникшую проблему не было. Речь о 2менеджер нодах и 1 слеве, начал постепенно ребутать их, сначала слев, потом менеджера который в Reacheble, дождался пока все поднимется, проверил доступность, статус кластера, развртку и все было ок, затем начал ребутать Leader ноду и она просто сдохла, после того как я смог получить доступ к терминалу, она волялась в режиме восстановления, который просто тупо не отрабатывал, прошерстив журналы, единственное что могло быть не так - это ошибка GlusterFS, но он был примонтирован в отдельный каталог, не содержал ни системных файлов, ни сервисов, ничего критичного, что могло повлиять на систему, только volumes контейнеров лежали на нём. Нода так и не поднялась, никакие танцы с бубнами не помогли, загружать пробовал с разными версиями ядра, все бестолку. После этого я обнаружил, что автоматической репликации не произошло, я залез на второго менеджера docker node ls выдавал ошибку, кластер не собирался и предлагал подождать пока появится Leader. В ребутнул docker.service и при помощи docker swarm init --force-new-cluster оживил свой кластер. Но жить с 2-мя менеджерами совсем не дело, поэтому я хотел назначить 3-го, делаю ещё одну ноду, уже новую, на ней закидываю запрос на Leader на прецепление нового managera и тут кластер рассыпается снова, не могу посмотреть статус нод, ничего. Ребутаться я сразу не стал и попробовал перезапустить docker.service, все повисло, весело минут 5, без результатов, отменяю ещё пару попыток, причем тоже самое поведенеи и на новом managere, все команды работают, нагрузке на сервере никакой, но вот docker.service никак не ребутается, не останавливается и не выдаёт ошибок, просто висит. Ну я взял и ребутнул этого Leadera и конечно-же он повторил учесть 1-го своего собрата, а тот новый manager так и весит.
Помогите чем сможете пожалуйста, вдруг кто-то сталкивался с похожим поведением, или может у кого есть мысли какие по этому поводу, в идеале хочется избежать этого в будущем.
George
18.06.2019
08:28:24
https://docs.docker.com/engine/reference/commandline/stop/
The main process inside the container will receive SIGTERM, and after a grace period, SIGKILL.
Доброе утро всем!
Какое-то жутко аномальное поведение наблюдаю в последние несколько дней с кластером Swarm. Было 3 менеджер ноды, столько-же слейвов, все прекрасно работало, репликация несколько раз отрабатывала и сама переезжала на другого менеджера, когда отваливался Leader. Но потом, сервисы начали хуевничать и ничего не оставалось как плавно ребутать ноды, так как другого способа решить возникшую проблему не было. Речь о 2менеджер нодах и 1 слеве, начал постепенно ребутать их, сначала слев, потом менеджера который в Reacheble, дождался пока все поднимется, проверил доступность, статус кластера, развртку и все было ок, затем начал ребутать Leader ноду и она просто сдохла, после того как я смог получить доступ к терминалу, она волялась в режиме восстановления, который просто тупо не отрабатывал, прошерстив журналы, единственное что могло быть не так - это ошибка GlusterFS, но он был примонтирован в отдельный каталог, не содержал ни системных файлов, ни сервисов, ничего критичного, что могло повлиять на систему, только volumes контейнеров лежали на нём. Нода так и не поднялась, никакие танцы с бубнами не помогли, загружать пробовал с разными версиями ядра, все бестолку. После этого я обнаружил, что автоматической репликации не произошло, я залез на второго менеджера docker node ls выдавал ошибку, кластер не собирался и предлагал подождать пока появится Leader. В ребутнул docker.service и при помощи docker swarm init --force-new-cluster оживил свой кластер. Но жить с 2-мя менеджерами совсем не дело, поэтому я хотел назначить 3-го, делаю ещё одну ноду, уже новую, на ней закидываю запрос на Leader на прецепление нового managera и тут кластер рассыпается снова, не могу посмотреть статус нод, ничего. Ребутаться я сразу не стал и попробовал перезапустить docker.service, все повисло, весело минут 5, без результатов, отменяю ещё пару попыток, причем тоже самое поведенеи и на новом managere, все команды работают, нагрузке на сервере никакой, но вот docker.service никак не ребутается, не останавливается и не выдаёт ошибок, просто висит. Ну я взял и ребутнул этого Leadera и конечно-же он повторил учесть 1-го своего собрата, а тот новый manager так и весит.
Помогите чем сможете пожалуйста, вдруг кто-то сталкивался с похожим поведением, или может у кого есть мысли какие по этому поводу, в идеале хочется избежать этого в будущем.
tl;dr, сорри
https://stackoverflow.com/questions/50898134/what-does-docker-stopsignal-do
есть еще такая ботва, но я ее не юзал
@Ozyab
Terry
18.06.2019
08:31:54
Сори, что так длинно, короче не описать никак(
Google
Вячеслав
18.06.2019
08:46:02
George
18.06.2019
08:46:36
Доброе утро всем!
Какое-то жутко аномальное поведение наблюдаю в последние несколько дней с кластером Swarm. Было 3 менеджер ноды, столько-же слейвов, все прекрасно работало, репликация несколько раз отрабатывала и сама переезжала на другого менеджера, когда отваливался Leader. Но потом, сервисы начали хуевничать и ничего не оставалось как плавно ребутать ноды, так как другого способа решить возникшую проблему не было. Речь о 2менеджер нодах и 1 слеве, начал постепенно ребутать их, сначала слев, потом менеджера который в Reacheble, дождался пока все поднимется, проверил доступность, статус кластера, развртку и все было ок, затем начал ребутать Leader ноду и она просто сдохла, после того как я смог получить доступ к терминалу, она волялась в режиме восстановления, который просто тупо не отрабатывал, прошерстив журналы, единственное что могло быть не так - это ошибка GlusterFS, но он был примонтирован в отдельный каталог, не содержал ни системных файлов, ни сервисов, ничего критичного, что могло повлиять на систему, только volumes контейнеров лежали на нём. Нода так и не поднялась, никакие танцы с бубнами не помогли, загружать пробовал с разными версиями ядра, все бестолку. После этого я обнаружил, что автоматической репликации не произошло, я залез на второго менеджера docker node ls выдавал ошибку, кластер не собирался и предлагал подождать пока появится Leader. В ребутнул docker.service и при помощи docker swarm init --force-new-cluster оживил свой кластер. Но жить с 2-мя менеджерами совсем не дело, поэтому я хотел назначить 3-го, делаю ещё одну ноду, уже новую, на ней закидываю запрос на Leader на прецепление нового managera и тут кластер рассыпается снова, не могу посмотреть статус нод, ничего. Ребутаться я сразу не стал и попробовал перезапустить docker.service, все повисло, весело минут 5, без результатов, отменяю ещё пару попыток, причем тоже самое поведенеи и на новом managere, все команды работают, нагрузке на сервере никакой, но вот docker.service никак не ребутается, не останавливается и не выдаёт ошибок, просто висит. Ну я взял и ребутнул этого Leadera и конечно-же он повторил учесть 1-го своего собрата, а тот новый manager так и весит.
Помогите чем сможете пожалуйста, вдруг кто-то сталкивался с похожим поведением, или может у кого есть мысли какие по этому поводу, в идеале хочется избежать этого в будущем.
так
это в облаке или на баре метал?
Alexander
18.06.2019
08:49:55
Господа, приветствую!
Поскажите плз бест-практис работы с файрволом.
Сервисы поднимаются docker-compose. Вопрос в ограничении доступа к сервисам только с определенных IP.
Как такие задачи решаются? Что то ничего из коробки не нагуглилось..
Делать извращения типа комментов напротив ports в docker-compose.yml, который парсить и создавать правила в DOCKER-USER?
George
18.06.2019
08:52:54
ооооо
это вообще интересный вопрос, потому что бестпректис ты нигде не прочитаешь
кратко - проще всего все сувать в хост нетворк моде.
как бонус - у тебя летенси по сети становится внятный
Alexander
18.06.2019
08:59:05
спасибо за подсказку, лейтенси надо будет потестить, не думал что ощутимая разница..
Terry
18.06.2019
08:59:28
George
18.06.2019
08:59:49
хост моде - и ты можешь управлять файрволлом нормально. Вешаешь условный сервис на порт 8000 и ты в iptables можешь легко настроить правила. Это тебе не DOCKER-USER цепочку насиловать
что еще сказать... теоретически ты можешь публиковать все сервисы внутри бриджей, а снаружи ходить в какой-нибудь traefik/nginx, которым все закрыто, но в операционном разрезе это сложно, т.е. дорого и ведет к ошибкам конфигурации
Terry
18.06.2019
09:05:52
больше про ноды расскажи
Всего 6 нод, 3 из них Manager, 3 Slave, по ресурсам все с запасом, на вырост, почти все контейнеры которые на них крутились были жестко ограниченны по рессурсам и жестко раскатываолись на заданных нодах. Отдельно на всех нодах был поднят GlusterFS для того, чтобы хранить на нем Volume самих контейеров и иметь доступ к ним со всех нод, он монтировался в /opt и хранил там непорсредственно volumes, развертка через модуль GlusterFS не увенчалась успехом, поэтому лежали они там через mount points. Что ещё нужно по нодам предоставить из инфы?
George
18.06.2019
09:10:48
Да вроде никакого криминала
Terry
18.06.2019
09:11:38
Также на slave нодах docker.service свалился в deactivating, ошибка подключения к Swarm
George
18.06.2019
09:29:03
Terry
18.06.2019
09:30:20
2 Leader вешел из ребута, спустя полтора часа, но Swarm рассыпался, сейчас повторно перепнул его, но на Slave нодах deactivate сервиса, не хочет сервис перезагружать