@docker_ru

Страница 641 из 1375
Sergey
13.06.2018
09:24:58
а как тома прокидываете хост-контейнер-nfs?

композ есть?

Volodimir Fedorov
13.06.2018
09:25:34
вообще все потуги это сделать через rancher

взял образ d3fk/nfs-client, создал ворклоад, внутри контейнера в папку /app смонтировалась шара.. в ранчере сделал волум с хост системы /app в /app контейнера

Google
Volodimir Fedorov
13.06.2018
09:26:35
если отмонтировать /app в контейнере то вижу файлы с хост системы

Sergey
13.06.2018
09:27:00
не, с ранчером ничего сказать не могу, шарил только в k8s через pvc

Volodimir Fedorov
13.06.2018
09:27:15
у ранчера под капотом к8с, т.е актуально

Sergey
13.06.2018
09:27:47
проблема в том что хост не контейнер он не может тыкаться в тот же pvc

а нельзя выставить хост как второй nfs?) и пусть они маунтятся в одну шару в контейнере?

Volodimir Fedorov
13.06.2018
09:29:22
не понял щас, но с pv тоже не работает

AlexAnder
13.06.2018
09:29:29
нужен ли multi-staged build для докерфайла, если у меня ci компилирует проект и потом докер билдит образ из папки build?

или лучше пусть в докере еще раз билдится ? в несколько этапов

Sergey
13.06.2018
09:29:45
правда тогда если контейнер помрет - умрет коннект тогда получается что надо строить HA а если так то получается будет какой то отказоустойчивый NFS прокси?

с хоста до nfs

PVC-по сути указатель на PV который является томом для NFS PV, PVC - сущности k8s, хост их не поймет

не понял щас, но с pv тоже не работает
дайте линк на ту фразу которую не поняли а то сам запутался

Google
Volodimir Fedorov
13.06.2018
09:32:23
хост на boot2docker

Sergey
13.06.2018
09:33:24
если у вас контейнер может общаться с NFS но не может с хостом, значит надо либо привязать контейнер в две стороны как с двумя NFS, либо сам хост с NFS(или с шарой)

и если прокинуть оба PV в одну папку, они там будут синькаться, получится что контейнер будет пркоси к NFS от хоста?

тома k8s работают через storageclass, я по крайней мере не пробовал шарить хост с контейнером, ибо ноды обычно используются как ресурсы для подов, или вы имеете в виду вообще левый хост не в кластере?

вот это не понял
если моя подсказка не помогла попробуйте тут спросить @kubernetes_ru

Volodimir Fedorov
13.06.2018
09:49:01
что то мне подсказывает что лучше вообще как то по другому сделать) очень костыльно все выглядит

Sergey
13.06.2018
09:50:06
идея сама по себе глупая

либо вы напрямую к NFS стучитесь с хоста

либо в шару где NFS пошарена

а через контейнер да, будет костыльный прокси NFS

либо упороться шарить сам том изнутри контейнера с хостом??? типа smb://ip.addr - будет приходить в папку контейнера через externalIP, а оттуда будет видеть директории внутри NFS

ну это совсем наркомания???

Dmitriy
13.06.2018
12:51:19
Ребят, а как сделать graceful reload контейнера с nginx?

AlexAnder
13.06.2018
14:01:22
нужен ли multi-staged build для докерфайла, если у меня ci компилирует проект и потом докер билдит образ из папки build?

или лучше пусть в докере еще раз билдится ? в несколько этапов

Gaiaz Iusipov
13.06.2018
14:12:47
нужен ли multi-staged build для докерфайла, если у меня ci компилирует проект и потом докер билдит образ из папки build?
Компиляцию есть смысл выносить в отдельный стейдж тк например в общем образе сами библиотеки для компиляции не нужны

Den
13.06.2018
14:53:55
Всем привет) Подскажите, пожалуйста, как грамотнее реализовать готовыми средствами следующее: имеется контейнер с nginx (для прокси), и множество контейнеров на которые проксируются запросы, все контейнеры разные (различное ПО). Все контейнеры могут быть слинкованы с другими контейнерами (базы данных). Все запускается через docker-compose.yml.

Den
13.06.2018
14:56:37
Мне нужно автоматически, у меня сложная конфигурация nginx, видел эту ссылку немного не то, статика вся на nginx

Google
Den
13.06.2018
14:57:42
По факту мне нужно автоматизировать как то связывание, что бы одной командной всё стартовало, контейнеры добавляются руками не динамически

Jentry
13.06.2018
14:58:56
По факту мне нужно автоматизировать как то связывание, что бы одной командной всё стартовало, контейнеры добавляются руками не динамически
Так а в чем вопрос-то, никакого связывания не нужно, в одной сетке же запускаются, доступны по имени контейнера (docker dns resolver). Просто пиши в конфиге nginx апстримы для проксирования и все

Den
13.06.2018
14:59:32
Много docker-compose проектов

Сейчас реализовал через external_links и явное указание имени контейнеров в сервисе

bebebe
13.06.2018
15:00:19
вы можете настроить бриджи через brctl или openvswitch между докер сетями

http://docs.openvswitch.org/en/latest/howto/docker/

Den
13.06.2018
15:01:55
И все контейнеры могут быть на 80 порту...

bebebe
13.06.2018
15:02:42
И все контейнеры могут быть на 80 порту...
в этом ничего страшного нет

Den
13.06.2018
15:05:34
вы можете настроить бриджи через brctl или openvswitch между докер сетями
А в docker-compose в таком случаи указывать созданную сеть?

Сергей
13.06.2018
15:08:13
подскажите как можно удалять старые образы? у меня автоматом он обновляется и тарый остается лежать)

Den
13.06.2018
15:08:31
Да
Это тоже подойдет верно? https://developer.ibm.com/recipes/tutorials/bridge-the-docker-containers-to-external-network/

bebebe
13.06.2018
15:09:26
Это тоже подойдет верно? https://developer.ibm.com/recipes/tutorials/bridge-the-docker-containers-to-external-network/
Да, вполне, я его выше вам первыми вариантом предлагал

Den
13.06.2018
15:09:58
Sun
13.06.2018
15:12:43
господа, вопрос на засыпку. Дано: докер бежит под рутом. Есть контейнер с подключенным волумом. По умолчанию на папку разрешения 777, на создаваемые из докера файлы — внутренний id из контейнера. Если кто-то снаружи меняет разрешения на файл, допустим, на nobody:crontab, то конт теряет доступ к файлу или нет?

Den
13.06.2018
15:17:25
Еще такой вопрос, подскажите, пожалуйста: как запустить сервер на 80 порту (т.е. Под root), но файлы создаваемые веб приложением внутри контейнера имели права обычного пользователя? Запускаю docker через sudo.

Alexandra
13.06.2018
15:17:26
Насчет рута не уверена, но вот пользователь созданный внутри контейнера - точно потеряет

bebebe
13.06.2018
15:38:15
господа, вопрос на засыпку. Дано: докер бежит под рутом. Есть контейнер с подключенным волумом. По умолчанию на папку разрешения 777, на создаваемые из докера файлы — внутренний id из контейнера. Если кто-то снаружи меняет разрешения на файл, допустим, на nobody:crontab, то конт теряет доступ к файлу или нет?
это щикотливый вопрос, нужно указывать версию докера, это важно https://stackoverflow.com/questions/23544282/what-is-the-best-way-to-manage-permissions-for-docker-shared-volumes я сталкивался с такой проблемой, у меня была какая-то тактика и я её придерживался (не помню как победил)

Google
bebebe
13.06.2018
15:38:46
и докер должен быть свеженький

Sun
13.06.2018
16:34:51
Пока что пришлось в анзибл прописать проверку и перенакатывание 666 на файл. Но я придумаю как это победить

Volodimir Fedorov
13.06.2018
17:31:41
можно попробовать скостылить с inotify например.. повесить фикс прав на событие в фс

Sun
13.06.2018
17:56:04
Инстанс не статичный. Мне надо будет это в анзибл забить

AlexAnder
14.06.2018
01:50:12
Компиляцию есть смысл выносить в отдельный стейдж тк например в общем образе сами библиотеки для компиляции не нужны
да, это верно. Ранее так и было сделано, в 3 этапа. Сейчас к приложению прикрутил ci и теперь билд/релиз и прочие штуки делаются автоматом через ci. Чтобы ускорить процесс сборки Я убрал стейджи из докера И при docker build образ собирается уже из готовой сборки, которую сделал ci т.е. по сути докерфайл: FROM nginx-alpine WORKDIR /app COPY ./build/ ./ Вопрос в том стоит ли оно того? Или лучше оставить мультистейдж-билд? Тогда получается, что приложение будет собираться лишний раз.

Vladimir
14.06.2018
05:25:07
Народ, а как можно в docker-compose отправить image в private registry?

Bohdan
14.06.2018
05:27:42
как и без docker-compose

docker login docker-compose push

Fess
14.06.2018
06:35:03
Всем привет! Подскажите пожалуйста - есть хост-машина, с 2-мя сетевыми интерфейсами, с IP вида 192.168.1.1 и 192.168.1.2. Хочу на ней запустить 2 докер-контейнера с tftp-сервером, таким образом, чтобы каждый контейнер привязывался с одному из сетевых интерфейсов хостовой машины, и был доступен извне по адресам 192.168.1.1:69 , 192.168.1.2:69 . Подскажите, реально ли такое сделать?

Ильнур
14.06.2018
06:37:30
при запуске в -p замапь

Fess
14.06.2018
06:38:04
при запуске в -p замапь
это порты, само собой, но как каждый контейнер завязать на нужный IP?

Ильнур
14.06.2018
06:40:10
-p 192.168.1.1:69:69

пробовал так?

Fess
14.06.2018
06:40:53
-p 192.168.1.1:69:69
хм, щас попробую

-p 192.168.1.1:69:69
работает, спасибо! Все оказалось проще:) А то я думал огород с сетями городить

Boris
14.06.2018
08:19:52
Подкажите, nginx контейнер энтрипоинта service nginx start сразу же завершается с exit code 0 - что может быть причиной?

Алексей
14.06.2018
08:20:20
активного процесса нет, значит контейнеру пора умереть

Sun
14.06.2018
08:20:26
потому что в контейнере не сервисы запускаются

bebebe
14.06.2018
08:20:46
Подкажите, nginx контейнер энтрипоинта service nginx start сразу же завершается с exit code 0 - что может быть причиной?
плохой, негодный entrypoint обычная практика запускать nginx как foreground процесс, в случае service nginx - запускает сервис и выходит

Sun
14.06.2018
08:20:52
посмотри в оригинальный докерфайл nginx/nginx и всё станет понятно

Google
Алексей
14.06.2018
08:21:21
походу все готовились к такому вопросу ))

Sun
14.06.2018
08:21:43
все наступали на эту граблю. Поэтому никто никого не унижает. :)

Dima
14.06.2018
08:25:22
Это правильно поведение)

Boris
14.06.2018
08:25:39
Спасибо

Понимаю, что все логично, просто не понятно досихпор, почему service nginx start при сборке внутри dockerfile - заставит его работать правильно, а в энтрипоинте -в ыйдет)

Ну, попробую сбилдить с ENTRYPOINT ["nginx", "-g", "daemon off;"]

Страница 641 из 1375