@docker_ru

Страница 679 из 1375
Roman
06.07.2018
14:46:36
что это может быть?

Oleg
06.07.2018
15:00:48
Через volume
Оно почему-то берет из rpc транслирует папку bin в cli, а как сделать, чтобы папки мерджились между собой и то что есть в папке bin сервиса cli было и в папке bin сервиса rpc? cli: build: context: . dockerfile: ./cli/Dockerfile image: cli:latest volumes: - cli_volume:/go/src/gitlab.com/.../bin depends_on: - rest-api working_dir: /go/src/gitlab.com/.../project_name entrypoint: | bash -c " ./bin/app init " rpc: build: context: . dockerfile: ./rpc/Dockerfile volumes: - cli_volume:/project/name/rpc/bin image: seth-rpc container_name: rpc command: | bash -c " ./bin/app init ./bin/rpc " volumes: cli_volume:

first
06.07.2018
15:02:41
Ребзя, всем привет, увидел такое создание контейнера с волюмами docker create \ -v /opt/prometheus/data \ -v /opt/consul-data \ Что это значит, знаю только такой вид наша_папка:как мы хотим видеть ее в контейнере В моем примере нету двоеточие, значит там прокидывается папка и будет с таким же путем?

Google
first
06.07.2018
16:09:03
Да, вроде так.
благодарю)

Gleb
06.07.2018
18:15:26
понапокупают айфонов

Paul
06.07.2018
18:22:39
Что, неужели нет идей?

Добрый день, коллеги! Прошу сильно ногами не пинать, сам понимаю, что конфигурация извратная) Итого, дано: Ubuntu server 18.4 + Docker Server Version: 18.05.0-ce на нем развернуты 2 ноды Docker-in-Docker https://github.com/jpetazzo/dind и portainer (https://portainer.io/install.html) для удобного управления На основной ноде инициализирован swarm manager, 2 ноды Docker-in-Docker добалены в него как воркеры Далее разворациваю в сварме сервис nginx, он оказывается на одной из нод Docker-in-Docker (вольюмы nginx расположены на swarm manager) Portainer тоже запущен как сервис, но с параметром --constraint 'node.role == manager', поэтому проблем с доступом нет ) А вот с доступом к nginx проблемы есть), сами контейнеры Docker-in-Docker вполне видны, а вот как прокинуть из них nginx моих знаний не хватает Получается, что nginx находится да двумя NAT, видимо поэтому он и не доступен "снаружи". Прошу поделиться идеями или просто сказать, что данная конфа не будет работать никогда, но аргументировать)

Tony
06.07.2018
21:48:53
Вместе с распберрями? :-D

CS
06.07.2018
21:50:06
Вместе с распберрями? :-D
Нее, их тут отдельно) все 7мь кстаии не обязательно можно и 1 и 2 и 3 )

Tony
06.07.2018
21:50:42
Да не, вообще норм дизайн. Я даже знаю прочему их именно семь.)

CS
06.07.2018
21:51:06
Вай?

Прост у меня днюха в июле, а это 7ой месяц

В 7емь лет я пошел еще в первый класс

Ну и так решили, окэ, будет 7мь

Yekit
06.07.2018
21:54:18
Добрый день, коллеги! Прошу сильно ногами не пинать, сам понимаю, что конфигурация извратная) Итого, дано: Ubuntu server 18.4 + Docker Server Version: 18.05.0-ce на нем развернуты 2 ноды Docker-in-Docker https://github.com/jpetazzo/dind и portainer (https://portainer.io/install.html) для удобного управления На основной ноде инициализирован swarm manager, 2 ноды Docker-in-Docker добалены в него как воркеры Далее разворациваю в сварме сервис nginx, он оказывается на одной из нод Docker-in-Docker (вольюмы nginx расположены на swarm manager) Portainer тоже запущен как сервис, но с параметром --constraint 'node.role == manager', поэтому проблем с доступом нет ) А вот с доступом к nginx проблемы есть), сами контейнеры Docker-in-Docker вполне видны, а вот как прокинуть из них nginx моих знаний не хватает Получается, что nginx находится да двумя NAT, видимо поэтому он и не доступен "снаружи". Прошу поделиться идеями или просто сказать, что данная конфа не будет работать никогда, но аргументировать)
Порты пробросить можно, либо ставить отдельно ещё nginx не докеровский и собирать в нем сервисы, указывая IP nginx контейнеров

Google
Tony
06.07.2018
21:57:32
Хаха)) RT8370 это свич на 8 портов, один разведен на плату, остается еще... 7)

Taz
06.07.2018
21:58:53
Добрый день, коллеги! Прошу сильно ногами не пинать, сам понимаю, что конфигурация извратная) Итого, дано: Ubuntu server 18.4 + Docker Server Version: 18.05.0-ce на нем развернуты 2 ноды Docker-in-Docker https://github.com/jpetazzo/dind и portainer (https://portainer.io/install.html) для удобного управления На основной ноде инициализирован swarm manager, 2 ноды Docker-in-Docker добалены в него как воркеры Далее разворациваю в сварме сервис nginx, он оказывается на одной из нод Docker-in-Docker (вольюмы nginx расположены на swarm manager) Portainer тоже запущен как сервис, но с параметром --constraint 'node.role == manager', поэтому проблем с доступом нет ) А вот с доступом к nginx проблемы есть), сами контейнеры Docker-in-Docker вполне видны, а вот как прокинуть из них nginx моих знаний не хватает Получается, что nginx находится да двумя NAT, видимо поэтому он и не доступен "снаружи". Прошу поделиться идеями или просто сказать, что данная конфа не будет работать никогда, но аргументировать)
ой спасибо за понтейнер. искал такое

Диванный
06.07.2018
22:50:47
народ кто Kubernetes настраивал подскажите как поднять веб интерфейс? настраиваю сеть создаю account.yaml поднимаю веб интерфейс kubectl proxy --address=0.0.0.0 --port 8001 --accept-hosts '.*' он запускается но прав нет всю голову уже сломал

Paul
07.07.2018
05:19:36
ой спасибо за понтейнер. искал такое
Да не за что, пользуйтесь на здоровье

Порты пробросить можно, либо ставить отдельно ещё nginx не докеровский и собирать в нем сервисы, указывая IP nginx контейнеров
Порты проброшены, но даже телнетом нет связи, хотя пинг и до нужной сети идут. Можно более подробно или с картинками? Я в понедельник скину сетевые конфиги всех нод, возможно будет яснее

Andrey
07.07.2018
06:27:45
Доброе утро, коллеги! Нужна помощь, нагуглить не получается. Ubuntu 16.04 чистая, только root, проинициализирована через docker-machine. Прямо на машине лежит папка с c docker-comopse конфигурацией и тут же подключаемые папки, запускается непосредственно с машины по ssh. Запускаемое приложение не может писать в volume version: 3 ... services: node-red: ... volumes: - ./node-red/data:/data ... Ошибка { Error: EACCES: permission denied, rename '/data/.config.json' -> '/data/.config.json.backup' # ls -la ./node-red/data/ total 160 drwxr-xr-x 4 root root 4096 Jul 7 00:29 . drwxr-xr-x 3 root root 4096 Jul 7 00:28 .. -rw-r--r-- 1 root root 13597 Jul 7 00:29 .config.json -rw-r--r-- 1 root root 14023 Jul 7 00:29 .config.json.backup -rw-r--r-- 1 root root 7729 Jul 7 00:29 flows.json -rw-r--r-- 1 root root 7063 Jul 7 00:29 .flows.json.backup drwxr-xr-x 3 root root 4096 Jul 7 00:28 lib -rw-r--r-- 1 root root 366 Jul 7 00:29 package.json -rw-r--r-- 1 root root 77987 Jul 7 00:29 package-lock.json drwxr-xr-x 4 root root 4096 Jul 7 00:28 projects -rw-r--r-- 1 root root 11071 Jul 7 00:55 settings.js

Yevhen
07.07.2018
07:33:03
whoami, или id выполни в контейнере

У тебя в контейнере скорее всего от пользователя node все выполняется

@falkolab

Andrey
07.07.2018
07:45:13
@jjonghyo от node-red, его нет на хосте, но и на домашней машине кажется тоже и притом работает, хотя дома мак и хост видимо там virtualbox, вернусь проверю. Надо создать юзера с тем же uid на хосте?

Вобщем как я понял uid пользователя контейнера должен соответствовать юзеру хоста и тот юзер хоста должен иметь право записи в монтируемую папку и файлы?

Yevhen
07.07.2018
08:27:53
Да, можешь конечно упростить добавив в композ файле директиву user: root

Диванный
07.07.2018
08:55:35
вообще то в доке написано что нужен сервис аккаунт и лучше node-port делайте а не прокси
веб интерфейс я вижу пытаюсь авторизоваться запросил токен и ввожу его авторизация судя по апи проходит нормально но после ввода токена нчиего не происходит

Sergey
07.07.2018
08:56:20
Диванный
07.07.2018
08:56:34
все по доке

+ еще статейки на хабре изучал

вебку поднимаю так kubectl proxy --address=0.0.0.0 --port 8001 --accept-hosts '.*'

ее же видно разве есть смысл делать node-port ?

Sergey
07.07.2018
08:58:30
можно нод-порт сделать и просто идти на адрес мастере:30000

Google
Andrey
07.07.2018
09:16:05
@YekitKsv спасибо, тут разжевано https://medium.com/@mccode/understanding-how-uid-and-gid-work-in-docker-containers-c37a01d01cf

Главное понимать причину чтобы сделать как надо

Там есть выводы и как раз пояснение почему работает в макос

Тарас
07.07.2018
09:54:54
из pi
Требую ссылку на техспеки и магазин!!!

Хотсвап будет?

CS
07.07.2018
09:57:09
Хотсвап будет?
Не тестилось еще, но по сути да т.к. это как разбери воткнуть в свитч и питание

Т.е. проблем не должно возникнуть, воркеры спокойно будут hot свапиться

Требую ссылку на техспеки и магазин!!!
Ждем вот с завода платы, будем тестить и обновлю все на сайте

Тарас
07.07.2018
09:58:21
А цена?

CS
07.07.2018
09:58:31
100 баков плата

Дальше модули можно 1 можно до семи масштабировать, все 7 сразу не надо

CS
07.07.2018
09:59:46
Там еще у каждой ноды свои задачи, есть ноды под мультимедиа, есть под периферию

Ну и мастер нода, она обязательна

Диванный
07.07.2018
10:20:32
что за платы?

CS
07.07.2018
13:20:28
Denis
07.07.2018
13:22:27
есть такие кто rancher2 использует? подскажите пжл, как заавтоматизировать обновление ingress ssl сертификата на letsencrypt если вилдкард серт уже есть? обошел гугль вдоль и впоперек все говорят за certmanager, но мне он не подходит тем что он валидацию по cloudflare проводит и получает новые серты

думал в сторону его подмены на фс, но не смог найти где в системе он хранится

Да и решение костыльное с подменой серта

Alexandr
07.07.2018
16:10:51
В рф не котируется
ну я и не про РФ )

Google
Sun
07.07.2018
16:46:43
Типа Rpi zero cluster board

Admin
ERROR: S client not available

Sun
07.07.2018
16:47:21
Платы все приходят на гигабитный свич

Белые разъёмы для самих плат, а 40пин для обвеса

PINE64 SoPine Cluster Board, например

CS
07.07.2018
16:49:32
Типа Rpi zero cluster board
Rpi да, но только compute module они сразу в sodimm

Sun
07.07.2018
16:51:01
Ну да, я об этом и говорю

Sergey
07.07.2018
17:20:30
всем привет, подсажите как приконектиться к базе bot_1 | peewee.OperationalError: could not connect to server: No such file or directory bot_1 | Is the server running locally and accepting bot_1 | connections on Unix domain socket "/var/run/postgresql/.s.PGSQL.5432"? я кучу вариантов перепробовал

https://pastebin.com/dxqYH9YQ

Sergey
07.07.2018
17:24:45
https://pastebin.com/dxqYH9YQ
посмотрите в сторону crunchy

Sergey
07.07.2018
17:25:38
Sergey
07.07.2018
17:26:41
а подробнее
>docker-hub >crunchy-data postgres images

Sergey
07.07.2018
17:28:21
>docker-hub >crunchy-data postgres images
а если не устанавливая, как решить эту проблему

Sergey
07.07.2018
17:29:34
а если не устанавливая, как решить эту проблему
сначала собирать без композа и быть уверенным что и так запускается я посмотрел с пастбина - какая то адища, с которой вряд ли кому хочется разбираться

Sergey
07.07.2018
17:30:18
без композа и томов она работает?

Sergey
07.07.2018
17:32:47
Sergey
07.07.2018
17:34:15
https://github.com/docker-library/postgres/tree/master/9.5

пересоберите сами с энтрипоинтом

это исходники того, что вы запускаете

Google
Vasiliy
07.07.2018
20:56:10
https://pastebin.com/dxqYH9YQ
Жесть какая-то: 1. у вас yaml поехал в районе POSTGRES_USER 2. Почему 9.5-то ? 9.6 на дворе уже. 3. Контейнер db поднялся ? база доступна локально ?

Vasiliy
07.07.2018
20:59:23
Если внутри контейнера db выполнить подключение к db с юзером и паролем - работает ?

ну или снаружи

Sergey
07.07.2018
20:59:59
Если внутри контейнера db выполнить подключение к db с юзером и паролем - работает ?
я с докером первый раз работаю, не разбирался особо и внутри не запускал

Vasiliy
07.07.2018
21:00:39
Ну значит надо разобраться и запустить docker exec -it (docker ps | grep posgres | awk '{print $1}') sh

sh потому что вроде бы postgre использует aplpine, а там bash нет если там убунта - то запускать bash соотв.

ну и внутри psql с параметрами

Страница 679 из 1375