Oleg
так тот же localtunnel на той же машине, где пущен докер
просто подсунь localtunel открытый порт докера
Oleg
нет, не выйдет
localtunnel нужен выход в интернет
докер же нужен для удобства и безопасности, а localtunnel только открывает его наружу, ни в удобстве, ни в безопасности не теряем
Oleg
в докер сервисы пихают, а localtunnel это не сервис, а что то типа прокси
Oleg
тоже вариант
можно образу localtunnel давать параметры запуска, а именно что расшаривать и просто кллонировать его на каждый открываемый сервис
Иван
докер будет работать под kvm?
Гайрат
Да
Иван
ʎıuǝƃʌƎ
@olegos76 в любом случае спс за ответы 👍
Oleg
🙂
N
я правильно понимаю, что проблема зомби всё еще реальна? и что сейчас есть флаг —init, который корректно проблему решает?
N
это я к тому, что dumb-init / tini можно не использовать, запуская контейнеры, которые могут генерировать зомби с флагом —init
N
и еще один вопрос
очень часто в dockerfile добавлен gosu
если я всё правильно понял, то он дает возможность динамически создавать пользователя с нужными uid/gid и от него запускать процессы?
примерно таким скриптом
#!/bin/sh
USER_ID=${LOCAL_USER_ID:-1000}
echo "Starting with UID : $USER_ID"
addgroup -g $USER_ID group && adduser -u $USER_ID -D -G group user
exec gosu user "$@"
N
подскажите, правильно ли я думаю?))
N
просто мне не удалось воспроизвести проблему вот отсюда:
https://github.com/tianon/gosu#why
для alpine, tty работает правильно
Anonymous
Всем привет. Есть вопрос. Есть кучка сервисов с прописанными healthcheck. Хочется уметь дожидаться пока все контейнеры из указанных в docker-compose.yml станут healthy. Есть что-то готовое на эту тему или свой велосипед делать?
Иван
а можно докер в lxc хостить?
Sergey
можно
Sergey
и докер в докер можно
Sergey
у лкси есть профайл lxc.aa_profile = lxc-container-default-with-nesting
Sergey
а дальше гуглить и тыкать
Andrei
Andrei
Что мешает понизить?
Anonymous
Ничего. Как и написать скрипт. Вопрос был в наличие готового решения, для потеницально распространенной проблемы.
Andrei
А смысл повышать версию и городить wait скрипты, если не используется swarm?
Anonymous
А смысл фиксироваться на конкретной версии, если мне нужно решение одной задачи, которое занимает 20 строк?
Andrei
Смысл в том, что версия новее под другие задачи и если они не требуются, то смысл городить огород?)
Ivan
всем привет!
а подскажите, как грамотно реализовать такую идею:
есть несколько вполне полноценных докерфайлов, которые надо разными способами компоновать.
наследованием это не решается (((
есть какой то способ инклюдов?
ЗЫ: сборка идёт в гитлаб-си-ай
Yevhen
Yevhen
а что там? можно поподробнее? композом пользуюсь, но билд в нём ни разу не пробовал
использую его на локальных окружениях разработчиков, в docker-compose файле описываю зависимости (некоторые образы нужно собирать с разными флагами, например с именем хоста).
Примерно так: https://pastebin.com/vXTu06Pa
Команду по сборке запихнул в Makefile:
...
dc-build: ## Сборка docker-образов согласно инструкциям из docker-compose.yml
docker-compose build
...
Разработчику достаточно запускить на своей машине
make dc-build
Ivan
ага... спасибо!
а "context: ./workspace" - это, собственно, там он ищет докерфайл?
а если они у меня в разных проектах находятся?
Ivan
понятно)) спасибо!
Pavel
Есть такой вопрос
МОжно ли посмотреть логи сети сворма?
Pavel
Суть - у нас есть туча нод (8-10 шт)
все в сворме
весь этот рой развёрнут в облаке
Есть один внешний IP адрес
Мы порт к бд прокидываем
В логах базы у нас подключение только с внутреннего адреса docker-сети
Pavel
Хочется узнать, какой реальный был адрес
Pavel
Есть у кого-нибудь мысли, как это можно сделать?
Nikolay
#note оставлю чтобы вернуться к сообщению, интересен тоже ответ
Мой
EtoZheSlava
Pavel
Адрес да, один и тот же
так вот как мне показалось - в роли проксятника сворм
Pavel
Если же это не докер такой адрес присваивает - то это у облака NAT так настроен, что вся внешка с одного адреса прилетает
alexander
А знает кто, какой смысл в VOLUME директивах в Dockerfile'ах? Просто если изображение собранное с такой директивой назапускать несколько раз, то докер просто создаст несколько локальных volume'ов с длинными хешами вместо имен. Т.е. эти volume'ы никак не шейрятся между контейнерами этого изображения, а просто создаются заново.
twwlf
изображение?
twwlf
Artem
охладите трахание 😎
twwlf
twwlf
ну или чтоб расшарить данные между разными контейнерами, например
alexander
образ каноничнее?) ну ладно. дк в том то и дело, что если контейнер удалить и запустить новый, то volume создается новый. а если останавливать контейнер и поднимать только через start и stop, то тогда вообще непонятно зачем volume, т.к. там и так данные сохраняются. а шарить данные между контейнерами через volume с именем рандомного хеша такое себе удовольствие.
Vyacheslav
alexander
а, точно же! тогда да, есть смысл. я просто был под впечатлением, что volume описаный в Dockerfile'е шейрится на все контейнеры образа, но как оказалось нет. ну ладно, и так нормально, спасибо :)
twwlf
ну в целом, идея в том, чтоб персистентные какие-то вещи выделять в volume
Valerii
а кто нибудь юзает номад в ec2? не сталкивался ли с проблемой когда прибил номад клиент на 2й сетевой интерфейс network_interface = eth1, а после запуска таски он все равно сабака на eth0 его привязывает. При этом отдельно докер нормально контейнеры запускает на отдельных интерфейсах.
Bogdan (SirEdvin)
EtoZheSlava
EtoZheSlava
т.к мы тут не имеем дело со слоями
Roman
может кому приходилось graylog сетапить?
invariance
парни, подскажите
invariance
как правильно пушить ебаный образ в ебаный репозиторий
invariance
если ебаный образ уже залит до этого был
Anonymous
А был залит ёбано или не ёбано?
invariance
хуй знает, давно было
invariance
я его вроде заливаю
invariance
но когда делаю docker-compose pull
invariance
он за секунду все обновляет
invariance
что просто невозможно
invariance
потому что заливается 130 метров
invariance
хотя в репе показано, что последний пуш был 2 минуты назад
EtoZheSlava
docker push и docker-compose pull на двух разных хостах?
invariance
одын