@ru_docker

Страница 544 из 610
Maxim
14.01.2019
12:35:56
пропиши в entrypoint backend'a

Вадим
14.01.2019
12:37:04
слипы наше все)))

Denys
14.01.2019
12:38:40


сказал я и открыл docker-compose файл со слипами

Google
LEXASOFT
14.01.2019
12:39:18
слипы же от брута)))))

Karim
14.01.2019
12:40:12
слипы наше все)))
что это такое? можно ссылочку почитать

Вадим
14.01.2019
12:42:23
да шучу же я)) плохо так делать конечно) типа в entrypoint sleep 30s; run app

Alexey
14.01.2019
12:49:02
база долго стартавала потомучто монтировал директорию заменил на монтирование volume - все стало нормально спасибо

Ivan
14.01.2019
16:18:07
Всем привет. Народ подскажите новичку, как в запущенном docker контейнере выполнить команду ./bin/nuxeoctl mp-install nuxeo-web-ui

Sergii (Kyiv)
14.01.2019
18:24:37
Здравствуйте. Есть некоторое промышленное приложение и даже не одно (связка). В глубины настроек и связей пока не вникал. Живет на ubuntu на интеловом железе nuc5i3. Есть пара написанных на си бинарников с динамическими зависимостями (библиотеками - ldd подтверждает). Вполне возможно что в бинарнеке что-то захардкоджено (собираюсь посмотерть dtrace-ом) Ни какой документации. Для себя пытаюсь можно ли раскидать всё это безобразие по разным контейнерам - знеобходимо добиться независимости софта от привязки к железу - имею в виду долгосрочная перспектива эксплуатации с переездами - с чего начать посоветуйте и как понять - поможет ли докер решить проблему долгосрочной перспективы эксплуатации

AstraSerg
14.01.2019
18:36:21
Если есть привязка к железу, докер не поможет. То есть не сможет отвязать.

Sergii (Kyiv)
14.01.2019
18:38:19
есть такой момент

AstraSerg
14.01.2019
18:53:52
Прокинуть в контейнеры скорее всего получится, но смысла маловато, если к хосту привязано.

Sergii (Kyiv)
14.01.2019
19:02:02
спасибо

bama^boy
16.01.2019
08:56:47
Привет. Кто-то писал плагины для докера? Можете хороший пример с документацией в образовательных целях скинуть? Интересует volume plugin. В официальной документации как-то фигово расписано про работу плагинов и рекомендуется их через systemd запускать.

Alexander
16.01.2019
09:30:55
Привет всем. Кто-нибудь пробовал рендерить 3D картинку (или glxgears к примеру) из докера на винде? Я выяснил, что для этих целей есть nvidia-docker, который позволяет использовать gpu внутри контейнера, но вроде поддержки винды у этой обертки нет. Буду рад услышать идеи.

Google
Sergii (Kyiv)
17.01.2019
09:07:58
Здравствуйте. С докером начал работать совсем недавно. Исходя из иностранной документации понял что его возможно поставить на железо однако толковых примеров не нашел и лично для себя сделал вывод что речь идет о работе с MAAS

енот
17.01.2019
09:34:20
Fe

Sergii (Kyiv)
17.01.2019
09:42:23
К примеру intel nuc5

Sergii (Kyiv)
17.01.2019
09:46:13
Ubuntu

Артём
17.01.2019
09:46:45
обычный x86 писюк, обычная ОС

Sergii (Kyiv)
17.01.2019
09:47:50
Про такую команду знаю

Ок спасибо думал узнаю что то новое

Aleksandr
17.01.2019
09:48:35
Всмысле?

На сайте дока по установке лежит

https://docs.docker.com/install/linux/docker-ce/ubuntu/

Iurii
17.01.2019
09:49:07
https://docs.docker.com/install/linux/docker-ce/ubuntu/

?

Блин не успел

Navern
17.01.2019
10:19:43
я не оч понял что ты хочешь узнать

Google
Maks
17.01.2019
10:47:45
Привет. Может быть кто подскажет по Kubernetes вариант решения следующей задачи: есть бесконечно пополняемая очередь (work queue в терминологии k8s), например RabbitMQ. Необходимо сделать параллельные консьюмеры, которые бы обрабатывали эту очередь постоянно (не одноразовые джобы). Ньюанс в том, что для предотвращения утечки памяти, консьюмеры принято (например в PHP) перезапускать через некоторе время или некоторое количество обработанных сообщений. Вопрос, как это ложится на Job абстракцию k8s? Там есть только restart: OnFailure | Never, а перезапуск имеет Success код (т.е. k8s не перезапустит такой Job) или может впринципе тут подход с Job неверный? И надо использовать нечто другое

Alexandr
17.01.2019
11:17:08
можно просто не использовать php

Maks
17.01.2019
11:24:48
PHP тут как пример, это может быть любой другой ЯП

Alexandr
17.01.2019
11:34:09
просто я не сталкивался с проблемой утечки памяти используя консьюмеры, они правда написаны на js

Maks
17.01.2019
11:35:29
вам повезло :) продолжаю изучение вопроса - судя по всему вместо Job надо использовать https://kubernetes.io/docs/concepts/workloads/controllers/replicationcontroller/ - ReplicationController, который даже в случае успешного завершения контейнера будет его перезапускать, держа постоянно N реплик

Maks
17.01.2019
12:01:45
спасибо за совет

а почему в сыром виде не стоит? если есть где почитать об этом - ткните ссылкой пожалуйста

Дмитрий
17.01.2019
12:03:22
спасибо за совет
deployment управляет rc (на этом так же реализован механизм обновлений/откатов), а rc управляет уже pod`ами

при обновлении, например, версий контейнеров просто новый rc подымается, а у старого число реплик выставляется в 0

Maks
17.01.2019
12:05:53
? спасибо

Макс
17.01.2019
18:13:53
Подскажите, network alias действует внутри сети networks. А если задать networks external, то alias распространяется на все external подсети?

Пример: Есть некая сеть mynet с прокси Есть две подсети с разными окружениями - prod и stage, которые работают через общий прокси. И выходит, что бэк с prod периодически пишет в базу или кеш на stage. Как их разрулить?

Макс
17.01.2019
19:22:44
да, так и написано

Maxim
17.01.2019
21:00:54
да, так и написано
А теперь рассказывайте, как так у вас вышло что ваш prod может дотянуться до stage сервера БД и ещё в кэш кучу навалить ? Или можете показать docker-compose.yml что бы ускорить процесс получения совета

Макс
18.01.2019
08:19:38
А теперь рассказывайте, как так у вас вышло что ваш prod может дотянуться до stage сервера БД и ещё в кэш кучу навалить ? Или можете показать docker-compose.yml что бы ускорить процесс получения совета
Эти два окружения висели на одном сервере. Вот docker-compose: version: '2' services: proxy: image: nginx container_name: stage-proxy restart: always depends_on: - app expose: - 80 environment: VIRTUAL_HOST: stage.loc volumes: - ./config/nginx:/etc/nginx/conf.d:ro - ./logs/nginx/:/var/log/nginx:rw networks: stage: aliases: - proxy app: image: stage container_name: stage-cms restart: always depends_on: - mysql environment: YII_ENV: prod MYSQL_HOST: mysql MYSQL_DATABASE: web MYSQL_USER: web MYSQL_PASSWORD: web networks: stage: aliases: - app mysql: image: mysql:5.7 container_name: stage-mysql restart: always ports: - "3306:3306" volumes: - ./config/mysql/mysql.cnf:/etc/mysql/mysql.conf.d/mysqld.cnf:ro - ./data/mysql:/var/lib/mysql - ./logs/mysql:/var/log/mysql environment: MYSQL_ROOT_PASSWORD: web MYSQL_DATABASE: web MYSQL_USER: web MYSQL_PASSWORD: web command: mysqld --character-set-server=utf8 --collation-server=utf8_general_ci networks: stage: aliases: - mysql memcached: image: memcached container_name: stage-memcached restart: always ports: - "11211:11211" networks: stage: aliases: - memcached networks: stage: external: name: srv_mynet

хмм... странно. Почему-то прокси оказался вообще в другой сети version: '2' services: proxy: image: neilpang/nginx-proxy container_name: proxy restart: always ports: - "80:80" - "443:443" volumes: - /var/run/docker.sock:/tmp/docker.sock:ro - /srv/proxy/certs:/etc/nginx/certs:Z - /srv/proxy/conf.d:/etc/nginx/conf.d - /srv/logs/nginx:/var/log/nginx:rw networks: worknet: networks: worknet:

Google
Макс
18.01.2019
08:25:18
как он вообще тогда запросы проксирует... ?

Maxim
18.01.2019
08:35:35
Макс
18.01.2019
08:44:21
А!!! Дошло. Дайте угадаю. Если у меня запущен prod тоже с networks: stage: external: name: srv_mynet То контейнеры и попадают все в одну сеть с одинаковыми алиасами. И гадят друг другу к кеш?

Макс
18.01.2019
08:56:39
А ты сообразительный, схватываешь налету, будем следить за твоими успехами
Понятно. Как-то я не так разобрался в работе external )) Спасибо огромное!

Kirill
18.01.2019
09:41:43
https://www.9tut.com/

https://www.certprepare.com/

Страница 544 из 610