
Антон
15.01.2019
12:40:55
в данном случае nginx

Вадим
15.01.2019
12:46:13
привет может подсказать. мне нужно при запуске образа
sudo docker run -it -v "как мне сюда примонтировать папку" --network=host centos1

Антон
15.01.2019
12:50:13
-v /path/to/local_folder:/pat/to/docker_image_folder - так в rw
так же можно указать ro

Google

Антон
15.01.2019
12:50:43
-v /path/to/local_folder:/pat/to/docker_image_folder:ro

Вадим
15.01.2019
12:55:43

Jentry
15.01.2019
13:24:37

Mr_Babrums.bin
15.01.2019
13:24:53

Вадим
15.01.2019
13:25:43
?

Mr_Babrums.bin
15.01.2019
13:27:23
повторюсь - контейнер кагбэ будет работать с директорией снаружи контейнера

Вадим
15.01.2019
13:28:59

Robert
15.01.2019
13:30:42

Mr_Babrums.bin
15.01.2019
13:30:59

Google

Mr_Babrums.bin
15.01.2019
13:31:47
то есть не надо никакой магии. докер просто загребает все попытки обратиться к какой-то директории внутри контейнера и подставляет туда volume
конечно могу ошибаться, я всего 3 месяца его пользую и не самым активным образом. подтвердите плес кто точно уверен

Вадим
15.01.2019
13:32:43
Ща попробую

Robert
15.01.2019
13:32:58
докер образ?

Mr_Babrums.bin
15.01.2019
13:33:52

Вадим
15.01.2019
13:34:37

Robert
15.01.2019
13:34:54
для тестов точно не надо каждый раз собирать
и 12 гигов образ это как-то страно
такого не должно быть

Lex
15.01.2019
13:35:54
походу там весь репозиторий тянется

George
15.01.2019
13:35:57

Вадим
15.01.2019
13:37:03

George
15.01.2019
13:37:36
эх
еще раз что происходит?
тянется существенно меньше трафика

Robert
15.01.2019
13:38:26

Google

Robert
15.01.2019
13:38:37
mysql, apache, php, centos?

George
15.01.2019
13:39:00
я тоже не понимаю как это влияет
паника_паника_пакеты другие ))))

Вадим
15.01.2019
13:43:45

Robert
15.01.2019
13:44:04

George
15.01.2019
13:44:40
я знаю
коллега не почистил кэш юма
выглядит примерно так
https://gist.github.com/orita/9168282
нюанс в том, что весь yum install нужно делать в один слой. И потом сразу клин там же.

Вадим
15.01.2019
13:47:09

George
15.01.2019
13:59:31
тут нету yum clean
без него у тебя yum насасывает файлов и кэшей, которые потом лежат и могут хоть 40ГиБ съесть

Вадим
15.01.2019
14:11:56

Андрей
15.01.2019
14:38:15
Здравствуйте :)

Desa
15.01.2019
14:52:39
Всем привет!

Mr_Babrums.bin
15.01.2019
14:54:44
http://neprivet.ru/
как-то по вахтерски что-ли)

Desa
15.01.2019
14:55:30
Кто как закрывает порты контейнеров из вне?
Т.е. сейчас доступ к DB есть через ip:port. А нужно закрыть такую возможность. Через ufw и правилами iptables не получается...

Mr_Babrums.bin
15.01.2019
14:56:09
а вопрос классный. тоже интересно стало

Google

Robert
15.01.2019
14:56:26

Desa
15.01.2019
14:57:29
т.как доступ при правилах не запрещают доступ
скорее всего из-за самого Докера, который сам вносит правила в iptables
sudo iptables -A INPUT -p tcp --dport 3306 -j DROP
но достучаться все так же могу до mysql
sudo ufw deny 3306
аналогично

George
15.01.2019
15:04:09
у тебя есть отдельная цепочка DOCKER-USER
либо ты на этапе прероутинга отшибаешь левые пакеты

Oleg
15.01.2019
15:04:57
-A INPUT -s 192.168.3.x -i eth0 -p tcp -m tcp --dport 3306 -m comment --comment "" -j DROP
-A INPUT -s 192.168.3.x -i eth0 -p tcp -m tcp --sport 3306 -m comment --comment "" -j DROP

George
15.01.2019
15:05:11
а еще можешь полностью взять на себя менеджмент правилами файрволла, чтобы докер не подгаживал

Oleg
15.01.2019
15:06:23
cм сам как у тебя

George
15.01.2019
15:08:03
я прероутингом отшибал

Desa
15.01.2019
15:08:40
сам прописывать правила для докера это конено хорошо) но думал что есть промежуточный вариант, а именно дописывать правила для тех контейнеров, которые хочешь отсечь

Вадим
15.01.2019
15:10:17
тут нету yum clean
Не подскажешь ? Монтирую директорию из нее беру файл с этим всё ок. Но нужно туда тоже копировать несколько файлов что бы получить их на хосте

George
15.01.2019
15:12:16

Вадим
15.01.2019
15:13:48

Старый
15.01.2019
15:28:36
Старый Хрыч, [15.01.19 16:47]
version: '3.6'
services:
nginx-proxy:
image: jwilder/nginx-proxy
ports:
- "14623:80"
volumes:
- /var/run/docker.sock:/tmp/docker.sock:ro
whoami:
image: proxynode
expose:
- "80"
deploy:
replicas: 100
вдохновлялся вот этим
version: '2'
services:
nginx-proxy:
image: jwilder/nginx-proxy
ports:
- "80:80"
volumes:
- /var/run/docker.sock:/tmp/docker.sock:ro
whoami:
image: jwilder/whoami
environment:
- VIRTUAL_HOST=whoami.local
но решил заменить на один из примеров где было expose:
- "80"

Google

Старый
15.01.2019
15:29:53
по сути есть контейнер proxynode, оно клиенту выдаёт проксю, от jwilder/nginx-proxy требуется тупо передать клиента одной из 100 реплик прокс
по итогу контейнер с jwilder/nginx-proxy недоступен из вне

Stefan
15.01.2019
15:33:23

Старый
15.01.2019
15:34:45
а по 14623 порту доступно?
нет, более того, если зайти на контейнер с jwilder/nginx-proxy netstat скажет
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 127.0.0.11:37676 0.0.0.0:* LISTEN -
tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 36/nginx: master pr
udp 0 0 127.0.0.11:49078 0.0.0.0:* -
Active UNIX domain sockets (only servers)
Proto RefCnt Flags Type State I-Node PID/Program name Path
tcp6 0 0 :::14623 :::* LISTEN 91095/dockerd а вот так это в netstat
но 101 контейнер созданы

George
15.01.2019
15:40:31
Создай 1 контейнер