
Alexey
21.05.2017
12:14:52
Кто-нибудь работал с Gunicorn?
Я хочу gunicorn и мое приложение разнести по разным контейнерам, но похоже gunicorn не умеет обращаться к приложению по сети, ему подавай файлы сразу и прямо тут. То есть выход я вижу сделать общий volume между контейнерами gunicorn и web-app, но на мой взгляд это уже слишком :)
Где ни читаю, все статьи и туторилы вообще не рассматривают подобной схемы, поэтому складывается впечатление, что приложение и gunicorn придется пихать в один и тот же контейнер
Причем тут возникает вопрос. Приложение работает без виртуального окружения с питоно 3.6, а gunicorn подавай не выше 3.2...

Google

Artem
21.05.2017
17:15:21
Тогда сам бог велел 2 разных контейнера с общим волюмом

Alexander
21.05.2017
20:02:54

ko4
21.05.2017
20:17:12
а есть кто с ua, на винде и у кого заблочен мейл?) стукнитесь в личку плиз

Bogdan (SirEdvin)
22.05.2017
08:48:05
Кто-то вообще завел ansible-container?

Ilia
22.05.2017
09:39:59
помогло, спасибо
df -i ещё проверь
иноды глянь

Konstantin
22.05.2017
10:07:13
https://habrahabr.ru/company/flant/blog/329136/

Ilia
22.05.2017
10:08:39
Не, всё было намного банальнее, крутился скрипт, который открыл кучу файлов и не закрыл и сожрал все ноды походу
то есть я докер изначально не мог поднять

Таймураз
22.05.2017
12:25:09
Всем привет
Никто не подскажет, как в docker compose указать таймаут рестарта?
Только для команды deploy указывается?

Google

Boris
22.05.2017
12:32:15
Всем привет, подскажите, не могу выполнить команду из хостовой машины
docker exec -ti elastalert 'python -m elastalert.elastalert --config /opt/config/elastalert_config.yaml --rule /opt/rules/too_many_clients.yaml --silence hours=1'
Из контейнера команда
python -m elastalert.elastalert --config /opt/config/elastalert_config.yaml --rule /opt/rules/too_many_clients.yaml --silence hours=1
выполняется отлично
в чем загвоздка, сложноуровневые команды не принимает из хоста?

Artem
22.05.2017
12:40:19
ошибку то какую выдает

Evgeny
22.05.2017
12:48:14

Vadim
22.05.2017
12:49:17

Konstantin
22.05.2017
12:49:46

Evgeny
22.05.2017
12:52:25

Алексей
22.05.2017
13:03:27

Evgeny
22.05.2017
13:06:28

Алексей
22.05.2017
13:07:38
Ну и еще вопрос. Как сделать так чтобы жалось только на проде. А на девах все было без сжатия?

Evgeny
22.05.2017
13:09:45
по хорошему заведи разные конфиг файлы для прода / теста / дева в nginx. И pagespeed on; суй только в прод

Алексей
22.05.2017
13:10:36
Я подумал что в конфигах nginx можно, наверное, чекать параметр среды

Evgeny
22.05.2017
13:10:52
Зачем?)
лучше делать изолированные среды

Алексей
22.05.2017
13:11:29
Окей, как дать docker-compose понять какую именно среду запускать?

Evgeny
22.05.2017
13:15:23

Алексей
22.05.2017
13:15:41

Evgeny
22.05.2017
13:16:46
Понял, спасибо
http://docker.cool/docs/docker-compose/extending-services-in-compose/

Konstantin
22.05.2017
13:20:38
зачем же compose для prod?

Boris
22.05.2017
13:30:45
ошибку то какую выдает
[13:30:05]root@techserv1:/usr/local/bin# docker exec -ti elastalert 'python -m elastalert.elastalert --config /opt/config/elastalert_config.yaml --rule /opt/rules/too_many_clients.yaml --silence hours=1'
rpc error: code = 13 desc = invalid header field value "oci runtime error: exec failed: container_linux.go:247: starting container process caused \"exec: \\\"python -m elastalert.elastalert --config /opt/config/elastalert_config.yaml --rule /opt/rules/too_many_clients.yaml --silence hours=1\\\": stat python -m elastalert.elastalert --config /opt/config/elastalert_config.yaml --rule /opt/rules/too_many_clients.yaml --silence hours=1: no such file or directory\"\n"

Google

Evgeny
22.05.2017
13:50:11

Andrey
22.05.2017
18:27:45
Камрады, что сейчас более удобно использовать для множества (порядка 150) пышных проектов, 90% из которых привязано к серверу засчет хранения множества файлов (statefull) Нагрузка у всех разная: 300-3000 rps. Хотелось бы минимального оверхеда по конфигурации. Mesos/kube/swarm? Машин ~ 50. Под контейнерами пока 10-к. Из ci/cd сейчас bamboo. Рассматривал привязку проектов по меткам серверов.

Кирилл
23.05.2017
08:45:17
#whois Доброе время суток. Я fullstack из ртк, узнал про группу из чятика phpclub.ru.

zigmund
23.05.2017
08:47:05
Хлоп хлоп хлоп

Кирилл
23.05.2017
08:47:19
Подскажите по docker.
При исполнении комманды git clone 'приватныйрепогитлаба' 128 ошибка))

Yury
23.05.2017
08:50:33
ADD config/certs/bitbucket /root/.ssh/id_rsa
RUN chmod 600 /root/.ssh/id_rsa && touch /root/.ssh/known_hosts
RUN ssh-keyscan -t rsa bitbucket.org >> /root/.ssh/known_hosts && git clone …

Кирилл
23.05.2017
08:51:13

Konstantin
23.05.2017
11:00:12
Ужас

Кирилл
23.05.2017
16:07:26

Роман
24.05.2017
02:25:02
старый добрый трюк с созданием отдельного диска и работой в его корне не канает?

Кирилл
24.05.2017
05:57:45

ASergey
24.05.2017
07:28:14
есть у нас проект, связка nodejs + php-cli. как лучше организовать контейнеры? на данный момент у меня один образ убунту где установлено и нода и рнр. я думаю есть более оптимальный вариант, пробовать я его конечно не стал, так как не девопс. Как бы вы разрулили данный стек?

Таймураз
24.05.2017
07:31:30

ASergey
24.05.2017
07:36:57
я начал собирать алпайн, но я не знаю как заставить его висеть...
в убунту это просто sleep infinity
а там нет..

Gluek
24.05.2017
07:38:43

ASergey
24.05.2017
07:39:24
потому что контейнер с рнр и нодой используется скорей всего как настроеная среда, вагрант, виртуалка,etc

Google

Admin
ERROR: S client not available

Таймураз
24.05.2017
07:39:35

Andrey
24.05.2017
07:40:11
надо вам в соседний чат вагрантологов

Ivan
24.05.2017
07:40:39
вагрант?

Bulatbulat48
24.05.2017
07:41:43

Gluek
24.05.2017
07:42:56
while true; do echo "still running..."; sleep 5; done
:s/running/vagrant/g

ASergey
24.05.2017
07:47:20
принцип докера я знаю, один процес - один контейнер. тут вопрос стоит в том чтоб в локальную систему не ставить разный хлам, а держать все это в контейнере

Gluek
24.05.2017
07:50:28

ASergey
24.05.2017
08:06:54
спасибо, под конец дня начну пробовать :)


Eugene
24.05.2017
09:13:31
Всем привет. Может кто-то сталкивался с таким -
Собираю образ из FROM ubuntu:16.04
и ловлю такою ошибку
Setting up makedev (2.3.1-93ubuntu2~ubuntu16.04.1) ...
mknod: mem-: Operation not permitted
makedev mem c 1 1 root kmem 0640: failed
mknod: kmem-: Operation not permitted
makedev kmem c 1 2 root kmem 0640: failed
mknod: null-: Operation not permitted
makedev null c 1 3 root root 0666: failed
mknod: port-: Operation not permitted
makedev port c 1 4 root kmem 0640: failed
mknod: zero-: Operation not permitted
makedev zero c 1 5 root root 0666: failed
mknod: full-: Operation not permitted
makedev full c 1 7 root root 0666: failed
mknod: random-: Operation not permitted
makedev random c 1 8 root root 0666: failed
mknod: urandom-: Operation not permitted
makedev urandom c 1 9 root root 0666: failed
mknod: tty-: Operation not permitted
makedev tty c 5 0 root tty 0666: failed
mknod: ram0-: Operation not permitted
makedev ram0 b 1 0 root disk 0660: failed
mknod: ram1-: Operation not permitted
makedev ram1 b 1 1 root disk 0660: failed
mknod: ram2-: Operation not permitted
makedev ram2 b 1 2 root disk 0660: failed
mknod: ram3-: Operation not permitted
makedev ram3 b 1 3 root disk 0660: failed
mknod: ram4-: Operation not permitted
makedev ram4 b 1 4 root disk 0660: failed
mknod: ram5-: Operation not permitted
makedev ram5 b 1 5 root disk 0660: failed
mknod: ram6-: Operation not permitted
makedev ram6 b 1 6 root disk 0660: failed
mknod: ram7-: Operation not permitted
makedev ram7 b 1 7 root disk 0660: failed
mknod: ram8-: Operation not permitted
makedev ram8 b 1 8 root disk 0660: failed
mknod: ram9-: Operation not permitted
makedev ram9 b 1 9 root disk 0660: failed
mknod: ram10-: Operation not permitted
makedev ram10 b 1 10 root disk 0660: failed
mknod: ram11-: Operation not permitted
makedev ram11 b 1 11 root disk 0660: failed
mknod: ram12-: Operation not permitted
makedev ram12 b 1 12 root disk 0660: failed
mknod: ram13-: Operation not permitted
makedev ram13 b 1 13 root disk 0660: failed
mknod: ram14-: Operation not permitted
makedev ram14 b 1 14 root disk 0660: failed
mknod: ram15-: Operation not permitted
makedev ram15 b 1 15 root disk 0660: failed
mknod: ram16-: Operation not permitted
makedev ram16 b 1 16 root disk 0660: failed
mknod: loop0-: Operation not permitted
makedev loop0 b 7 0 root disk 0660: failed
mknod: loop1-: Operation not permitted
makedev loop1 b 7 1 root disk 0660: failed
mknod: loop2-: Operation not permitted
makedev loop2 b 7 2 root disk 0660: failed
mknod: loop3-: Operation not permitted
makedev loop3 b 7 3 root disk 0660: failed
mknod: loop4-: Operation not permitted
makedev loop4 b 7 4 root disk 0660: failed
mknod: loop5-: Operation not permitted
makedev loop5 b 7 5 root disk 0660: failed
mknod: loop6-: Operation not permitted
makedev loop6 b 7 6 root disk 0660: failed
mknod: loop7-: Operation not permitted
makedev loop7 b 7 7 root disk 0660: failed
mknod: tty0-: Operation not permitted
makedev tty0 c 4 0 root tty 0600: failed
mknod: console-: Operation not permitted
makedev console c 5 1 root tty 0600: failed
/sbin/MAKEDEV: don't know how to make device "tty0"
dpkg: error processing package makedev (--configure):
subprocess installed post-installation script returned error exit status 1
Errors were encountered while processing:
makedev
Нашел только
https://bugs.launchpad.net/ubuntu/+source/makedev/+bug/1675163
где уверяют что эта проблема пофикшена.


Сергей
24.05.2017
10:42:20
Привет
вопрос про swarm
как я понял если запускать service то контейнеры не смогут общаться между собой по overlay сети?
куда копать? с торону external key-valye storage? или у swarm есть встроенный?
Kernel Version: 3.10.0-514.6.2.el7.x86_64
Operating System: CentOS Linux 7 (Core)
Server Version: 17.05.0-ce
мне не в прод, пока для тестов

Konstantin
24.05.2017
10:46:35
У swarm встроенный, а сеть атачить можно или создавай stack (compose v3)

Сергей
24.05.2017
10:52:24
вот как раз и курю доки

Konstantin
24.05.2017
10:53:07
Ну принцип почти как и с run
А вообще - собирай в compose их

Google

Сергей
24.05.2017
10:55:48
странно
docker network create --driver overlay hazelcast
docker network ls
vs64o432ez02 hazelcast overlay swarm
docker service create --network hazelcast --name hz382 -p 5701:5701 --replicas=3 registry.local:5000/hazelcast:3.8.2
каждый контейнер пишет вот такое
hz382.2.qaj4eijxyeza@docker0201.dev.tema | Members [1] {
hz382.2.qaj4eijxyeza@docker0201.dev.tema | Member [10.255.0.5]:5701 - 8a0c22ad-b46c-481f-bc28-af9b9ff94ac2 this
hz382.2.qaj4eijxyeza@docker0201.dev.tema | }
то есть адрес у всех одинаковый
выключены все firewalld и selinux

Konstantin
24.05.2017
11:06:56
у swarm встроенный балансировщик
а, это логи

Сергей
24.05.2017
11:09:00
в каждом контейнере
я наверное не в ту сторону копаю
hazlecast использует для обнаружение multicast, а он скорее всего не ходит по overlay сети. надо копать в другую сторону, хотелось легким движением руки поднять кластер hazelcast в кластере docker swarm для тестов

Bogdan (SirEdvin)
24.05.2017
11:12:17

Konstantin
24.05.2017
11:14:21