Антон
15.01.2019
12:40:55
в данном случае nginx
Вадим
15.01.2019
12:46:13
привет может подсказать. мне нужно при запуске образа
sudo docker run -it -v "как мне сюда примонтировать папку" --network=host centos1
Антон
15.01.2019
12:50:13
-v /path/to/local_folder:/pat/to/docker_image_folder - так в rw
так же можно указать ro
Google
Антон
15.01.2019
12:50:43
-v /path/to/local_folder:/pat/to/docker_image_folder:ro
Вадим
15.01.2019
12:55:43
Jentry
15.01.2019
13:24:37
Mr_Babrums.bin
15.01.2019
13:24:53
Вадим
15.01.2019
13:25:43
?
Mr_Babrums.bin
15.01.2019
13:27:23
повторюсь - контейнер кагбэ будет работать с директорией снаружи контейнера
Вадим
15.01.2019
13:28:59
Robert
15.01.2019
13:30:42
Mr_Babrums.bin
15.01.2019
13:30:59
Google
Mr_Babrums.bin
15.01.2019
13:31:47
то есть не надо никакой магии. докер просто загребает все попытки обратиться к какой-то директории внутри контейнера и подставляет туда volume
конечно могу ошибаться, я всего 3 месяца его пользую и не самым активным образом. подтвердите плес кто точно уверен
Вадим
15.01.2019
13:32:43
Ща попробую
Robert
15.01.2019
13:32:58
докер образ?
Mr_Babrums.bin
15.01.2019
13:33:52
Вадим
15.01.2019
13:34:37
Robert
15.01.2019
13:34:54
для тестов точно не надо каждый раз собирать
и 12 гигов образ это как-то страно
такого не должно быть
Lex
15.01.2019
13:35:54
походу там весь репозиторий тянется
George
15.01.2019
13:35:57
Вадим
15.01.2019
13:37:03
George
15.01.2019
13:37:36
эх
еще раз что происходит?
тянется существенно меньше трафика
Robert
15.01.2019
13:38:26
Google
Robert
15.01.2019
13:38:37
mysql, apache, php, centos?
George
15.01.2019
13:39:00
я тоже не понимаю как это влияет
паника_паника_пакеты другие ))))
Вадим
15.01.2019
13:43:45
Robert
15.01.2019
13:44:04
George
15.01.2019
13:44:40
я знаю
коллега не почистил кэш юма
выглядит примерно так
https://gist.github.com/orita/9168282
нюанс в том, что весь yum install нужно делать в один слой. И потом сразу клин там же.
Вадим
15.01.2019
13:47:09
George
15.01.2019
13:59:31
тут нету yum clean
без него у тебя yum насасывает файлов и кэшей, которые потом лежат и могут хоть 40ГиБ съесть
Вадим
15.01.2019
14:11:56
Андрей
15.01.2019
14:38:15
Здравствуйте :)
Desa
15.01.2019
14:52:39
Всем привет!
Mr_Babrums.bin
15.01.2019
14:54:44
http://neprivet.ru/
как-то по вахтерски что-ли)
Desa
15.01.2019
14:55:30
Кто как закрывает порты контейнеров из вне?
Т.е. сейчас доступ к DB есть через ip:port. А нужно закрыть такую возможность. Через ufw и правилами iptables не получается...
Mr_Babrums.bin
15.01.2019
14:56:09
а вопрос классный. тоже интересно стало
Google
Robert
15.01.2019
14:56:26
Desa
15.01.2019
14:57:29
т.как доступ при правилах не запрещают доступ
скорее всего из-за самого Докера, который сам вносит правила в iptables
sudo iptables -A INPUT -p tcp --dport 3306 -j DROP
но достучаться все так же могу до mysql
sudo ufw deny 3306
аналогично
George
15.01.2019
15:04:09
у тебя есть отдельная цепочка DOCKER-USER
либо ты на этапе прероутинга отшибаешь левые пакеты
Oleg
15.01.2019
15:04:57
-A INPUT -s 192.168.3.x -i eth0 -p tcp -m tcp --dport 3306 -m comment --comment "" -j DROP
-A INPUT -s 192.168.3.x -i eth0 -p tcp -m tcp --sport 3306 -m comment --comment "" -j DROP
George
15.01.2019
15:05:11
а еще можешь полностью взять на себя менеджмент правилами файрволла, чтобы докер не подгаживал
Oleg
15.01.2019
15:06:23
cм сам как у тебя
George
15.01.2019
15:08:03
я прероутингом отшибал
Desa
15.01.2019
15:08:40
сам прописывать правила для докера это конено хорошо) но думал что есть промежуточный вариант, а именно дописывать правила для тех контейнеров, которые хочешь отсечь
Вадим
15.01.2019
15:10:17
тут нету yum clean
Не подскажешь ? Монтирую директорию из нее беру файл с этим всё ок. Но нужно туда тоже копировать несколько файлов что бы получить их на хосте
George
15.01.2019
15:12:16
Вадим
15.01.2019
15:13:48
Старый
15.01.2019
15:28:36
Старый Хрыч, [15.01.19 16:47]
version: '3.6'
services:
nginx-proxy:
image: jwilder/nginx-proxy
ports:
- "14623:80"
volumes:
- /var/run/docker.sock:/tmp/docker.sock:ro
whoami:
image: proxynode
expose:
- "80"
deploy:
replicas: 100
вдохновлялся вот этим
version: '2'
services:
nginx-proxy:
image: jwilder/nginx-proxy
ports:
- "80:80"
volumes:
- /var/run/docker.sock:/tmp/docker.sock:ro
whoami:
image: jwilder/whoami
environment:
- VIRTUAL_HOST=whoami.local
но решил заменить на один из примеров где было expose:
- "80"
Google
Старый
15.01.2019
15:29:53
по сути есть контейнер proxynode, оно клиенту выдаёт проксю, от jwilder/nginx-proxy требуется тупо передать клиента одной из 100 реплик прокс
по итогу контейнер с jwilder/nginx-proxy недоступен из вне
Stefan
15.01.2019
15:33:23
Старый
15.01.2019
15:34:45
а по 14623 порту доступно?
нет, более того, если зайти на контейнер с jwilder/nginx-proxy netstat скажет
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 127.0.0.11:37676 0.0.0.0:* LISTEN -
tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 36/nginx: master pr
udp 0 0 127.0.0.11:49078 0.0.0.0:* -
Active UNIX domain sockets (only servers)
Proto RefCnt Flags Type State I-Node PID/Program name Path
tcp6 0 0 :::14623 :::* LISTEN 91095/dockerd а вот так это в netstat
но 101 контейнер созданы
George
15.01.2019
15:40:31
Создай 1 контейнер