Oleg
так тот же localtunnel на той же машине, где пущен докер просто подсунь localtunel открытый порт докера
ʎıuǝƃʌƎ
так тот же localtunnel на той же машине, где пущен докер просто подсунь localtunel открытый порт докера
спасибо за ответ. я конечно могу на хост запилить localtunnel и сделать как раньше, но мне интересно, можно ли localtunnel тоже вынести в докер. наверное даже в отдельный контейнер о_О
Oleg
нет, не выйдет localtunnel нужен выход в интернет докер же нужен для удобства и безопасности, а localtunnel только открывает его наружу, ни в удобстве, ни в безопасности не теряем
Oleg
в докер сервисы пихают, а localtunnel это не сервис, а что то типа прокси
ʎıuǝƃʌƎ
нет, не выйдет localtunnel нужен выход в интернет докер же нужен для удобства и безопасности, а localtunnel только открывает его наружу, ни в удобстве, ни в безопасности не теряем
ну...тем не менее, мне удалось сделать, как я хочу. я запустил оба контейнера с параметром network host. в одном приложуха на порту, в другом localtunnel, щарящий порт приложения, и вроде бы все получилось
ʎıuǝƃʌƎ
в докер сервисы пихают, а localtunnel это не сервис, а что то типа прокси
это все понятно. я использую не для продакшн docker, а для разработки. не хотелось ни node, ни npm в систему запиливать просто
Oleg
тоже вариант можно образу localtunnel давать параметры запуска, а именно что расшаривать и просто кллонировать его на каждый открываемый сервис
Иван
докер будет работать под kvm?
Гайрат
Да
Иван
Да
спасибо
ʎıuǝƃʌƎ
@olegos76 в любом случае спс за ответы 👍
Oleg
🙂
N
я правильно понимаю, что проблема зомби всё еще реальна? и что сейчас есть флаг —init, который корректно проблему решает?
N
это я к тому, что dumb-init / tini можно не использовать, запуская контейнеры, которые могут генерировать зомби с флагом —init
N
и еще один вопрос очень часто в dockerfile добавлен gosu если я всё правильно понял, то он дает возможность динамически создавать пользователя с нужными uid/gid и от него запускать процессы? примерно таким скриптом #!/bin/sh USER_ID=${LOCAL_USER_ID:-1000} echo "Starting with UID : $USER_ID" addgroup -g $USER_ID group && adduser -u $USER_ID -D -G group user exec gosu user "$@"
N
подскажите, правильно ли я думаю?))
N
просто мне не удалось воспроизвести проблему вот отсюда: https://github.com/tianon/gosu#why для alpine, tty работает правильно
Anonymous
Всем привет. Есть вопрос. Есть кучка сервисов с прописанными healthcheck. Хочется уметь дожидаться пока все контейнеры из указанных в docker-compose.yml станут healthy. Есть что-то готовое на эту тему или свой велосипед делать?
Иван
а можно докер в lxc хостить?
Sergey
можно
Sergey
и докер в докер можно
Sergey
у лкси есть профайл lxc.aa_profile = lxc-container-default-with-nesting
Sergey
а дальше гуглить и тыкать
Anonymous
V2.1 condition healty?
У меня 3.1, а там его уже нет
Andrei
Что мешает понизить?
Anonymous
Ничего. Как и написать скрипт. Вопрос был в наличие готового решения, для потеницально распространенной проблемы.
Andrei
А смысл повышать версию и городить wait скрипты, если не используется swarm?
Anonymous
А смысл фиксироваться на конкретной версии, если мне нужно решение одной задачи, которое занимает 20 строк?
Andrei
Смысл в том, что версия новее под другие задачи и если они не требуются, то смысл городить огород?)
Ivan
всем привет! а подскажите, как грамотно реализовать такую идею: есть несколько вполне полноценных докерфайлов, которые надо разными способами компоновать. наследованием это не решается ((( есть какой то способ инклюдов? ЗЫ: сборка идёт в гитлаб-си-ай
Ivan
может через docker-compose build?
а что там? можно поподробнее? композом пользуюсь, но билд в нём ни разу не пробовал
Yevhen
а что там? можно поподробнее? композом пользуюсь, но билд в нём ни разу не пробовал
использую его на локальных окружениях разработчиков, в docker-compose файле описываю зависимости (некоторые образы нужно собирать с разными флагами, например с именем хоста). Примерно так: https://pastebin.com/vXTu06Pa Команду по сборке запихнул в Makefile: ... dc-build: ## Сборка docker-образов согласно инструкциям из docker-compose.yml docker-compose build ... Разработчику достаточно запускить на своей машине make dc-build
Yevhen
а что там? можно поподробнее? композом пользуюсь, но билд в нём ни разу не пробовал
Чтобы использовать docker-compose в гитлаб-си-ай (если у вас тип раннера докер) то возможно придется пересобрать базовый контейнер... У меня например весь CI выполняется в контейнерах: image: registry.gitlab.lc:5000/develop/ed/tmaier-dc-ssh:latest services: - registry.gitlab.lc:5000/develop/ed/my-docker-dind:latest ....
Yevhen
а что там? можно поподробнее? композом пользуюсь, но билд в нём ни разу не пробовал
собственно в контейнере tmaier-dc-ssh:latest и есть установленный docker-compose + ssh, которые мне нужны были
Ivan
ага... спасибо! а "context: ./workspace" - это, собственно, там он ищет докерфайл? а если они у меня в разных проектах находятся?
Yevhen
ага... спасибо! а "context: ./workspace" - это, собственно, там он ищет докерфайл? а если они у меня в разных проектах находятся?
да, контекст это где докерфайл лежит а как быть с разными проектами - тут уж я вам не подскажу, не сталкивался - у меня все в одном месте... У себя, например, я в основном проекте создал папку docker, а внутри нее еще штук 15 каталогов для каждого нужного контейнера и внутрь сложил докерфайлы + зависимости: http://joxi.ru/L214d0VH6zYx9m
Ivan
понятно)) спасибо!
Yevhen
понятно)) спасибо!
пожалуйста, рад помочь)
Pavel
Есть такой вопрос МОжно ли посмотреть логи сети сворма?
Pavel
Суть - у нас есть туча нод (8-10 шт) все в сворме весь этот рой развёрнут в облаке Есть один внешний IP адрес Мы порт к бд прокидываем В логах базы у нас подключение только с внутреннего адреса docker-сети
Pavel
Хочется узнать, какой реальный был адрес
Pavel
Есть у кого-нибудь мысли, как это можно сделать?
Nikolay
#note оставлю чтобы вернуться к сообщению, интересен тоже ответ
Мой
можно
спасибо
EtoZheSlava
Суть - у нас есть туча нод (8-10 шт) все в сворме весь этот рой развёрнут в облаке Есть один внешний IP адрес Мы порт к бд прокидываем В логах базы у нас подключение только с внутреннего адреса docker-сети
> логах базы у нас подключение только с внутреннего адреса docker-сети адрес тот один и тот же? т.е это прокси? может стоит там смотреть?
Pavel
Адрес да, один и тот же так вот как мне показалось - в роли проксятника сворм
Pavel
Если же это не докер такой адрес присваивает - то это у облака NAT так настроен, что вся внешка с одного адреса прилетает
alexander
А знает кто, какой смысл в VOLUME директивах в Dockerfile'ах? Просто если изображение собранное с такой директивой назапускать несколько раз, то докер просто создаст несколько локальных volume'ов с длинными хешами вместо имен. Т.е. эти volume'ы никак не шейрятся между контейнерами этого изображения, а просто создаются заново.
twwlf
изображение?
twwlf
Artem
охладите трахание 😎
twwlf
ну или чтоб расшарить данные между разными контейнерами, например
alexander
образ каноничнее?) ну ладно. дк в том то и дело, что если контейнер удалить и запустить новый, то volume создается новый. а если останавливать контейнер и поднимать только через start и stop, то тогда вообще непонятно зачем volume, т.к. там и так данные сохраняются. а шарить данные между контейнерами через volume с именем рандомного хеша такое себе удовольствие.
alexander
а, точно же! тогда да, есть смысл. я просто был под впечатлением, что volume описаный в Dockerfile'е шейрится на все контейнеры образа, но как оказалось нет. ну ладно, и так нормально, спасибо :)
twwlf
ну в целом, идея в том, чтоб персистентные какие-то вещи выделять в volume
Valerii
а кто нибудь юзает номад в ec2? не сталкивался ли с проблемой когда прибил номад клиент на 2й сетевой интерфейс network_interface = eth1, а после запуска таски он все равно сабака на eth0 его привязывает. При этом отдельно докер нормально контейнеры запускает на отдельных интерфейсах.
EtoZheSlava
т.к мы тут не имеем дело со слоями
alexander
Если имя останется то же, то вроде сохранится
если имелось в виду имя контейнера, то все же нет, только что проверил. но это не страшно
Roman
может кому приходилось graylog сетапить?
Artem
может кому приходилось graylog сетапить?
Так есть же elk который неплохо работает с gelf драйвером, зачем graylog?
Yevhen
может кому приходилось graylog сетапить?
приходилось, делал так https://pastebin.com/Sht0QBr1
invariance
парни, подскажите
invariance
как правильно пушить ебаный образ в ебаный репозиторий
invariance
если ебаный образ уже залит до этого был
Anonymous
А был залит ёбано или не ёбано?
invariance
хуй знает, давно было
invariance
я его вроде заливаю
invariance
но когда делаю docker-compose pull
invariance
он за секунду все обновляет
invariance
что просто невозможно
invariance
потому что заливается 130 метров
invariance
хотя в репе показано, что последний пуш был 2 минуты назад
EtoZheSlava
docker push и docker-compose pull на двух разных хостах?
invariance
одын