
Maxim
14.01.2019
12:35:56
пропиши в entrypoint backend'a

Вадим
14.01.2019
12:37:04
слипы наше все)))

Denys
14.01.2019
12:38:40
сказал я и открыл docker-compose файл со слипами

Google

LEXASOFT
14.01.2019
12:39:18
слипы же от брута)))))

Karim
14.01.2019
12:40:12

Вадим
14.01.2019
12:42:23
да шучу же я)) плохо так делать конечно)
типа в entrypoint sleep 30s; run app

Alexey
14.01.2019
12:49:02
база долго стартавала потомучто монтировал директорию
заменил на монтирование volume - все стало нормально
спасибо

Ivan
14.01.2019
16:18:07
Всем привет. Народ подскажите новичку, как в запущенном docker контейнере выполнить команду ./bin/nuxeoctl mp-install nuxeo-web-ui

енот
14.01.2019
16:18:49

Sergii (Kyiv)
14.01.2019
18:24:37
Здравствуйте. Есть некоторое промышленное приложение и даже не одно (связка). В глубины настроек и связей пока не вникал. Живет на ubuntu на интеловом железе nuc5i3. Есть пара написанных на си бинарников с динамическими зависимостями (библиотеками - ldd подтверждает). Вполне возможно что в бинарнеке что-то захардкоджено (собираюсь посмотерть dtrace-ом) Ни какой документации. Для себя пытаюсь можно ли раскидать всё это безобразие по разным контейнерам - знеобходимо добиться независимости софта от привязки к железу - имею в виду долгосрочная перспектива эксплуатации с переездами - с чего начать посоветуйте и как понять - поможет ли докер решить проблему долгосрочной перспективы эксплуатации

AstraSerg
14.01.2019
18:36:21
Если есть привязка к железу, докер не поможет. То есть не сможет отвязать.

Sergii (Kyiv)
14.01.2019
18:38:19
есть такой момент

AstraSerg
14.01.2019
18:53:52
Прокинуть в контейнеры скорее всего получится, но смысла маловато, если к хосту привязано.

Sergii (Kyiv)
14.01.2019
19:02:02
спасибо

bama^boy
16.01.2019
08:56:47
Привет. Кто-то писал плагины для докера? Можете хороший пример с документацией в образовательных целях скинуть? Интересует volume plugin.
В официальной документации как-то фигово расписано про работу плагинов и рекомендуется их через systemd запускать.

Alexander
16.01.2019
09:30:55
Привет всем. Кто-нибудь пробовал рендерить 3D картинку (или glxgears к примеру) из докера на винде? Я выяснил, что для этих целей есть nvidia-docker, который позволяет использовать gpu внутри контейнера, но вроде поддержки винды у этой обертки нет. Буду рад услышать идеи.

Google

Sergii (Kyiv)
17.01.2019
09:07:58
Здравствуйте. С докером начал работать совсем недавно. Исходя из иностранной документации понял что его возможно поставить на железо однако толковых примеров не нашел и лично для себя сделал вывод что речь идет о работе с MAAS

Артём
17.01.2019
09:30:19

енот
17.01.2019
09:34:20
Fe

Sergii (Kyiv)
17.01.2019
09:42:23
К примеру intel nuc5

AstraSerg
17.01.2019
09:44:38

Sergii (Kyiv)
17.01.2019
09:46:13
Ubuntu

Артём
17.01.2019
09:46:45
обычный x86 писюк, обычная ОС

Aleksandr
17.01.2019
09:47:25
репу только подключить надо

Sergii (Kyiv)
17.01.2019
09:47:50
Про такую команду знаю
Ок спасибо думал узнаю что то новое

Aleksandr
17.01.2019
09:48:35
Всмысле?
На сайте дока по установке лежит
https://docs.docker.com/install/linux/docker-ce/ubuntu/

Iurii
17.01.2019
09:49:07
https://docs.docker.com/install/linux/docker-ce/ubuntu/
?
Блин не успел

Navern
17.01.2019
10:19:43
я не оч понял что ты хочешь узнать

Google

Maks
17.01.2019
10:47:45
Привет. Может быть кто подскажет по Kubernetes вариант решения следующей задачи: есть бесконечно пополняемая очередь (work queue в терминологии k8s), например RabbitMQ. Необходимо сделать параллельные консьюмеры, которые бы обрабатывали эту очередь постоянно (не одноразовые джобы).
Ньюанс в том, что для предотвращения утечки памяти, консьюмеры принято (например в PHP) перезапускать через некоторе время или некоторое количество обработанных сообщений.
Вопрос, как это ложится на Job абстракцию k8s? Там есть только restart: OnFailure | Never, а перезапуск имеет Success код (т.е. k8s не перезапустит такой Job)
или может впринципе тут подход с Job неверный? И надо использовать нечто другое

Alexandr
17.01.2019
11:17:08
можно просто не использовать php

Maks
17.01.2019
11:24:48
PHP тут как пример, это может быть любой другой ЯП

Alexandr
17.01.2019
11:34:09
просто я не сталкивался с проблемой утечки памяти используя консьюмеры, они правда написаны на js

Maks
17.01.2019
11:35:29
вам повезло :)
продолжаю изучение вопроса - судя по всему вместо Job надо использовать https://kubernetes.io/docs/concepts/workloads/controllers/replicationcontroller/ - ReplicationController, который даже в случае успешного завершения контейнера будет его перезапускать, держа постоянно N реплик

Дмитрий
17.01.2019
11:59:51
deployment с обработчиками и не периться
сдохнет - куб его переподымет

Maks
17.01.2019
12:01:45
спасибо за совет
а почему в сыром виде не стоит? если есть где почитать об этом - ткните ссылкой пожалуйста

Дмитрий
17.01.2019
12:03:22
спасибо за совет
deployment управляет rc (на этом так же реализован механизм обновлений/откатов), а rc управляет уже pod`ами
при обновлении, например, версий контейнеров просто новый rc подымается, а у старого число реплик выставляется в 0

Maks
17.01.2019
12:05:53
? спасибо

Макс
17.01.2019
18:13:53
Подскажите, network alias действует внутри сети networks. А если задать networks external, то alias распространяется на все external подсети?
Пример:
Есть некая сеть mynet с прокси
Есть две подсети с разными окружениями - prod и stage, которые работают через общий прокси. И выходит, что бэк с prod периодически пишет в базу или кеш на stage. Как их разрулить?

Maxim
17.01.2019
19:22:13

Макс
17.01.2019
19:22:44
да, так и написано

Maxim
17.01.2019
21:00:54
да, так и написано
А теперь рассказывайте, как так у вас вышло что ваш prod может дотянуться до stage сервера БД и ещё в кэш кучу навалить ?
Или можете показать docker-compose.yml что бы ускорить процесс получения совета


Макс
18.01.2019
08:19:38
А теперь рассказывайте, как так у вас вышло что ваш prod может дотянуться до stage сервера БД и ещё в кэш кучу навалить ?
Или можете показать docker-compose.yml что бы ускорить процесс получения совета
Эти два окружения висели на одном сервере.
Вот docker-compose:
version: '2'
services:
proxy:
image: nginx
container_name: stage-proxy
restart: always
depends_on:
- app
expose:
- 80
environment:
VIRTUAL_HOST: stage.loc
volumes:
- ./config/nginx:/etc/nginx/conf.d:ro
- ./logs/nginx/:/var/log/nginx:rw
networks:
stage:
aliases:
- proxy
app:
image: stage
container_name: stage-cms
restart: always
depends_on:
- mysql
environment:
YII_ENV: prod
MYSQL_HOST: mysql
MYSQL_DATABASE: web
MYSQL_USER: web
MYSQL_PASSWORD: web
networks:
stage:
aliases:
- app
mysql:
image: mysql:5.7
container_name: stage-mysql
restart: always
ports:
- "3306:3306"
volumes:
- ./config/mysql/mysql.cnf:/etc/mysql/mysql.conf.d/mysqld.cnf:ro
- ./data/mysql:/var/lib/mysql
- ./logs/mysql:/var/log/mysql
environment:
MYSQL_ROOT_PASSWORD: web
MYSQL_DATABASE: web
MYSQL_USER: web
MYSQL_PASSWORD: web
command: mysqld --character-set-server=utf8 --collation-server=utf8_general_ci
networks:
stage:
aliases:
- mysql
memcached:
image: memcached
container_name: stage-memcached
restart: always
ports:
- "11211:11211"
networks:
stage:
aliases:
- memcached
networks:
stage:
external:
name: srv_mynet
хмм... странно. Почему-то прокси оказался вообще в другой сети
version: '2'
services:
proxy:
image: neilpang/nginx-proxy
container_name: proxy
restart: always
ports:
- "80:80"
- "443:443"
volumes:
- /var/run/docker.sock:/tmp/docker.sock:ro
- /srv/proxy/certs:/etc/nginx/certs:Z
- /srv/proxy/conf.d:/etc/nginx/conf.d
- /srv/logs/nginx:/var/log/nginx:rw
networks:
worknet:
networks:
worknet:

Google

Макс
18.01.2019
08:25:18
как он вообще тогда запросы проксирует... ?

Maxim
18.01.2019
08:35:35


Макс
18.01.2019
08:44:21
А!!! Дошло. Дайте угадаю. Если у меня запущен prod тоже с
networks:
stage:
external:
name: srv_mynet
То контейнеры и попадают все в одну сеть с одинаковыми алиасами. И гадят друг другу к кеш?

Maxim
18.01.2019
08:54:41

Макс
18.01.2019
08:56:39

Maxim
18.01.2019
09:16:15

Kirill
18.01.2019
09:41:43
https://www.9tut.com/
https://www.certprepare.com/