
Sergey
13.06.2018
09:24:58
а как тома прокидываете хост-контейнер-nfs?
композ есть?

Volodimir Fedorov
13.06.2018
09:25:34
вообще все потуги это сделать через rancher
взял образ d3fk/nfs-client, создал ворклоад, внутри контейнера в папку /app смонтировалась шара.. в ранчере сделал волум с хост системы /app в /app контейнера

Google

Volodimir Fedorov
13.06.2018
09:26:35
если отмонтировать /app в контейнере то вижу файлы с хост системы

Sergey
13.06.2018
09:27:00
не, с ранчером ничего сказать не могу, шарил только в k8s через pvc

Volodimir Fedorov
13.06.2018
09:27:15
у ранчера под капотом к8с, т.е актуально

Sergey
13.06.2018
09:27:47
проблема в том что хост не контейнер он не может тыкаться в тот же pvc
а нельзя выставить хост как второй nfs?) и пусть они маунтятся в одну шару в контейнере?

Volodimir Fedorov
13.06.2018
09:29:22
не понял щас, но с pv тоже не работает

AlexAnder
13.06.2018
09:29:29
нужен ли multi-staged build для докерфайла, если у меня ci компилирует проект и потом докер билдит образ из папки build?
или лучше пусть в докере еще раз билдится ? в несколько этапов

Sergey
13.06.2018
09:29:45
правда тогда если контейнер помрет - умрет коннект
тогда получается что надо строить HA
а если так то получается будет какой то отказоустойчивый NFS прокси?
с хоста до nfs
PVC-по сути указатель на PV который является томом для NFS
PV, PVC - сущности k8s, хост их не поймет

Volodimir Fedorov
13.06.2018
09:32:12

Google

Volodimir Fedorov
13.06.2018
09:32:23
хост на boot2docker

Sergey
13.06.2018
09:33:24
если у вас контейнер может общаться с NFS но не может с хостом, значит надо либо привязать контейнер в две стороны как с двумя NFS, либо сам хост с NFS(или с шарой)
и если прокинуть оба PV в одну папку, они там будут синькаться, получится что контейнер будет пркоси к NFS от хоста?
тома k8s работают через storageclass, я по крайней мере не пробовал шарить хост с контейнером, ибо ноды обычно используются как ресурсы для подов, или вы имеете в виду вообще левый хост не в кластере?
вот это не понял
если моя подсказка не помогла попробуйте тут спросить @kubernetes_ru

Volodimir Fedorov
13.06.2018
09:49:01
что то мне подсказывает что лучше вообще как то по другому сделать) очень костыльно все выглядит

Sergey
13.06.2018
09:50:06
идея сама по себе глупая
либо вы напрямую к NFS стучитесь с хоста
либо в шару где NFS пошарена
а через контейнер да, будет костыльный прокси NFS
либо упороться шарить сам том изнутри контейнера с хостом???
типа smb://ip.addr - будет приходить в папку контейнера через externalIP, а оттуда будет видеть директории внутри NFS
ну это совсем наркомания???

Dmitriy
13.06.2018
12:51:19
Ребят, а как сделать graceful reload контейнера с nginx?

AlexAnder
13.06.2018
14:01:22
нужен ли multi-staged build для докерфайла, если у меня ci компилирует проект и потом докер билдит образ из папки build?
или лучше пусть в докере еще раз билдится ? в несколько этапов

Gaiaz Iusipov
13.06.2018
14:12:47

Den
13.06.2018
14:53:55
Всем привет)
Подскажите, пожалуйста, как грамотнее реализовать готовыми средствами следующее: имеется контейнер с nginx (для прокси), и множество контейнеров на которые проксируются запросы, все контейнеры разные (различное ПО). Все контейнеры могут быть слинкованы с другими контейнерами (базы данных). Все запускается через docker-compose.yml.

bebebe
13.06.2018
14:54:55

Den
13.06.2018
14:56:37
Мне нужно автоматически, у меня сложная конфигурация nginx, видел эту ссылку немного не то, статика вся на nginx

bebebe
13.06.2018
14:57:10

Google

Den
13.06.2018
14:57:42
По факту мне нужно автоматизировать как то связывание, что бы одной командной всё стартовало, контейнеры добавляются руками не динамически

Jentry
13.06.2018
14:58:56

Den
13.06.2018
14:59:32
Много docker-compose проектов
Сейчас реализовал через external_links и явное указание имени контейнеров в сервисе

bebebe
13.06.2018
15:00:19
вы можете настроить бриджи через brctl или openvswitch между докер сетями
http://docs.openvswitch.org/en/latest/howto/docker/

Den
13.06.2018
15:01:55
И все контейнеры могут быть на 80 порту...

bebebe
13.06.2018
15:02:42

Den
13.06.2018
15:05:34

bebebe
13.06.2018
15:06:07

Сергей
13.06.2018
15:08:13
подскажите как можно удалять старые образы? у меня автоматом он обновляется и тарый остается лежать)

Den
13.06.2018
15:08:31
Да
Это тоже подойдет верно? https://developer.ibm.com/recipes/tutorials/bridge-the-docker-containers-to-external-network/

bebebe
13.06.2018
15:09:26

Jentry
13.06.2018
15:09:34

Den
13.06.2018
15:09:58

Sun
13.06.2018
15:12:43
господа, вопрос на засыпку.
Дано:
докер бежит под рутом.
Есть контейнер с подключенным волумом.
По умолчанию на папку разрешения 777, на создаваемые из докера файлы — внутренний id из контейнера.
Если кто-то снаружи меняет разрешения на файл, допустим, на nobody:crontab, то конт теряет доступ к файлу или нет?

Den
13.06.2018
15:17:25
Еще такой вопрос, подскажите, пожалуйста: как запустить сервер на 80 порту (т.е. Под root), но файлы создаваемые веб приложением внутри контейнера имели права обычного пользователя? Запускаю docker через sudo.

Alexandra
13.06.2018
15:17:26
Насчет рута не уверена, но вот пользователь созданный внутри контейнера - точно потеряет

bebebe
13.06.2018
15:38:15

Google

bebebe
13.06.2018
15:38:46
и докер должен быть свеженький

Sun
13.06.2018
16:34:51
Пока что пришлось в анзибл прописать проверку и перенакатывание 666 на файл.
Но я придумаю как это победить

Volodimir Fedorov
13.06.2018
17:31:41
можно попробовать скостылить с inotify например.. повесить фикс прав на событие в фс

Sun
13.06.2018
17:56:04
Инстанс не статичный. Мне надо будет это в анзибл забить

AlexAnder
14.06.2018
01:50:12
Компиляцию есть смысл выносить в отдельный стейдж тк например в общем образе сами библиотеки для компиляции не нужны
да, это верно. Ранее так и было сделано, в 3 этапа.
Сейчас к приложению прикрутил ci
и теперь билд/релиз и прочие штуки делаются автоматом через ci.
Чтобы ускорить процесс сборки
Я убрал стейджи из докера
И при docker build образ собирается уже из готовой сборки, которую сделал ci
т.е. по сути докерфайл:
FROM nginx-alpine
WORKDIR /app
COPY ./build/ ./
Вопрос в том стоит ли оно того? Или лучше оставить мультистейдж-билд?
Тогда получается, что приложение будет собираться лишний раз.

Vladimir
14.06.2018
05:25:07
Народ, а как можно в docker-compose отправить image в private registry?

Bohdan
14.06.2018
05:27:42
как и без docker-compose
docker login
docker-compose push

Fess
14.06.2018
06:35:03
Всем привет! Подскажите пожалуйста - есть хост-машина, с 2-мя сетевыми интерфейсами, с IP вида 192.168.1.1 и 192.168.1.2. Хочу на ней запустить 2 докер-контейнера с tftp-сервером, таким образом, чтобы каждый контейнер привязывался с одному из сетевых интерфейсов хостовой машины, и был доступен извне по адресам 192.168.1.1:69 , 192.168.1.2:69 .
Подскажите, реально ли такое сделать?

Ильнур
14.06.2018
06:37:30
при запуске в -p замапь

Fess
14.06.2018
06:38:04

Ильнур
14.06.2018
06:40:10
-p 192.168.1.1:69:69
пробовал так?

Fess
14.06.2018
06:40:53

Boris
14.06.2018
08:19:52
Подкажите, nginx контейнер энтрипоинта service nginx start сразу же завершается с exit code 0 - что может быть причиной?

Алексей
14.06.2018
08:20:20
активного процесса нет, значит контейнеру пора умереть

Sun
14.06.2018
08:20:26
потому что в контейнере не сервисы запускаются

bebebe
14.06.2018
08:20:46

Sun
14.06.2018
08:20:52
посмотри в оригинальный докерфайл nginx/nginx и всё станет понятно

Google

Алексей
14.06.2018
08:21:21
походу все готовились к такому вопросу ))

Sun
14.06.2018
08:21:43
все наступали на эту граблю. Поэтому никто никого не унижает. :)

Dima
14.06.2018
08:25:22
Это правильно поведение)

Boris
14.06.2018
08:25:39
Спасибо
Понимаю, что все логично, просто не понятно досихпор, почему service nginx start при сборке внутри dockerfile - заставит его работать правильно, а в энтрипоинте -в ыйдет)
Ну, попробую сбилдить с ENTRYPOINT ["nginx", "-g", "daemon off;"]