
N
04.10.2016
18:57:38
Щас это ограничение "запускайте контейнер на ноде с меткой вольюма", какая дикость

Magistr
04.10.2016
18:57:40
а еще есть drbd который больше чем с 2мя нодами неработает

N
04.10.2016
18:57:49
Безумный костыль

Dmitry
04.10.2016
18:58:19

Google

Dmitry
04.10.2016
18:58:21
Иногда

Magistr
04.10.2016
18:58:39
докер идеален для стейтлесс рест сервисов, и для разработки на локалхосте, остальное это много боли

Phil
04.10.2016
18:59:24
9P )) странно кстати что еще не

Magistr
04.10.2016
18:59:48

N
04.10.2016
19:00:22
Только не обязательно рест

Phil
04.10.2016
19:00:44

Magistr
04.10.2016
19:00:48
ну да любой стейтлес

N
04.10.2016
19:00:57
Можно поточную обработку отлично делать, если брать из очереди
Со стейтом там беда, конечно
Хотя я думаю что k8s и конкуренты решат это в определённый момент

Phil
04.10.2016
19:02:30

Google

N
04.10.2016
19:02:58
Или Амазон доделает efs чтоб не тормозило

Phil
04.10.2016
19:06:07
Собственно одна из проблем plan9 была в том, что достаточно быстро возникала проблема диких графов прокидывания файлух в запущенных докерах
Которые в больших конфигурациях начинали гонять туда сбда данные почем зря

N
04.10.2016
19:13:03
А кстати есть что-то типа Btsync, но нормальный опенсорс?

Aleksandr
04.10.2016
19:13:31

N
04.10.2016
19:14:06
А он умеет в одну сторону?

Aleksandr
04.10.2016
19:14:28
умеет

N
04.10.2016
19:14:36
Круто, спасибо
Надо посмотреть

Phil
04.10.2016
19:17:23
только на него ругаются, что жрет

Aleksandr
04.10.2016
19:18:04
если про моб идет речь, то да, жрет

Phil
04.10.2016
19:22:38
ну я почитал описание и в итоге использую бтсинк. в домашних целях

Макс
04.10.2016
19:23:30

Artur
04.10.2016
21:29:36
https://blog.docker.com/2016/10/introducing-infrakit-an-open-source-toolkit-for-declarative-infrastructure/
кто-нибудь уже пробовал?
кроме того, что там внутри swarm mode сырой

Phil
04.10.2016
23:51:08
Кстати об хостинге докера. KuberDoc
https://www.cloudlinux.com/all-products/product-overview/kuberdock

Evgeny
05.10.2016
07:25:29
Хы. Хостер под ключ

Phil
05.10.2016
07:35:23
Ну там странно

Google

Phil
05.10.2016
07:36:22
Колхоженная система. При этом упправлялку они предлагают всё равно ISPManager, cPanel или DirectAdmin. Простите. Где-то тут я вообще начал терять где маржа

Evgeny
05.10.2016
08:02:21
Они за доступность решений простым людям!


Oleksandr
05.10.2016
08:07:27
Добрый день.
Ребята столкнулся с проблемой.
Грубо говоря есть 2 docker-compose.yml
один слушает внешку:
version: '2'
services:
nginx:
image: nginx
restart: always
container_name: nginx
ports:
- "80:80"
- "443:443"
volumes:
- "./nginx/conf.d:/etc/nginx/conf.d"
- "./nginx/vhost.d:/etc/nginx/vhost.d"
- "./nginx/html:/usr/share/nginx/html"
- "./nginx/certs:/etc/nginx/certs:ro"
networks:
- proxy-tier
...
networks:
proxy-tier:
external:
name: nginx-proxy
Второй само приложение:
version: '2'
services:
...
proxy:
image: nginx:1.7.10
estart: always
networks:
- default
- proxy-tier
volumes:
- ./nginx.conf:/etc/nginx/nginx.conf:ro
...
networks:
proxy-tier:
external:
name: nginx-proxy
В основном nginx прописываю:
server {
listen 80;
server_name *.dev. example.com;
set $proxy "";
if ($host ~* ([a-z0-9_-]+).example.com$) {
set $proxy $1dev_proxy_1;
}
location / {
proxy_pass http://$proxy/;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection 'upgrade';
proxy_set_header Host $host;
proxy_cache_bypass $http_upgrade;
}
}
В docker network inspect nginx-proxy
оба контейнера присутсвуют.
захожу в основной nginx нужный сервис пингуется
но nginx не проксирует
no resolver defined to resolve testdev_proxy_1, client: 5.234.185.13, server: *.dev. example.com, request: "GET / HTTP/1.1", host: "test.dev.example.com"
само приложение работает, так как если ему самому пробросить порт, то все работает.
ports:
- "8080:80"
Идея следующая: хочется динамически и автоматически поднимать песочницы через CI но не лесть в настройки
решил попробовать без переменной $proxy и напрямую прописать
proxy_pass http://testdev_proxy_1/;
работает


Evgeny
05.10.2016
08:18:07
Nginx нужен резолв. Ставь либо локалднс, либо спец дискавери
В твоем случае на девелоп версии хватит просто resolv 127.0.0.11 если не ошибаюсь

Oleksandr
05.10.2016
08:21:34
спасибо за свежие идеи, сейчас буду проверять
Спасибо заработало
у меня паралельно стояли сервисы, которые по enviroment генерировали letsencrypt сертификаты. прописал их в нужном совем сервисе и все заработало еще + и по https получилось :)

Алексей
05.10.2016
09:01:30
так чего они опять ?
https://github.com/docker/infrakit
сколько это может продолжаться уже ?

Evgeny
05.10.2016
09:10:35
что продожатся? они щирят проникновение, майкрософтятся, все норм
Так то я оному рад, потому что у меня вся эта фигня наколенена в баше, и я б хотел свалить поддержку на сообщество

Алексей
05.10.2016
09:13:22
они жрут вокруг себя всю поляну
все технологии и всю обёртку и обёртку обрёртки
вангую сервера для докера

Sergey
05.10.2016
09:14:39
физические?

Evgeny
05.10.2016
09:14:56

Алексей
05.10.2016
09:15:27

Google

Sergey
05.10.2016
09:15:33
>_<

Constantine
05.10.2016
09:16:17
но зачем?

Evgeny
05.10.2016
09:16:21
Да да, помню помню. Jazelle оже пророчили убийство всех и вся
А "MicroJava" помните?

N
05.10.2016
11:29:04
это естественный шаг
сворм без него никому не нужен, что с ним делать-то? самому ставить-настраивать?

Roman
05.10.2016
12:17:12
подскажите как поступить
есть пара контейнеров. бд и приложение.
само Приложение разворачивается на этапе билда контейнера и имеет зависимость от БД. т.е на одном из этапов билда контейнера приложения он должен обратиться к бд. Есть ли какой то способ передать информацию о соседнем контенере с бд?

Admin
ERROR: S client not available

Evgeny
05.10.2016
12:18:45
На этапе билда - через env
https://docs.docker.com/engine/reference/commandline/build/
--build-arg

Andrey
05.10.2016
12:29:21

Aleksandr
05.10.2016
12:43:19
хреновый кейс - настраивать контейнер надо черезх окружение. он не должен зависеть от базы, которая может еще быть и не сбилдена.

Evgeny
05.10.2016
12:52:10
Ну как бэ зависит от билд процесса. У меня тоже билд зависит от окружения бо я предпочел прогонять тесты в процессе билда чтобы он валился если тесты не прошли. А для тестов нужны базы.

N
05.10.2016
12:52:49
перед запуском теста повесь цикл, в котором тестируется соединение с базой, да и все

Evgeny
05.10.2016
12:53:20

ptchol
05.10.2016
13:51:48
Слушайте, докер показывает что есть имидж, при попытке его удалить говорит
Error response from daemon: reference does not exist
на гитхабе дофига таких проблем но решения на горизонте не видно )

Evgeny
05.10.2016
13:52:24
rm -rf /var/lib/docker

ptchol
05.10.2016
13:54:05
резкий какой

Google

Evgeny
05.10.2016
14:02:16
ну я так нное кол-во проблем с ним решаю :))))

Aleksandr
05.10.2016
14:15:58
глючит часто - тоже приходится чистить /var/lib/docker
все образы с реестра грузятся, так что проблем не вижу... нюанс: именованные volume там же хранятся - это надо помнитьт.

Михаил
05.10.2016
14:21:23
дкераны, помогите, туплю
как запушить кастомный имедж в свою репу на докерхабе?
docker push sintezoid/sintezoid/nginx:latest
The push refers to a repository [docker.io/sintezoid/sintezoid/nginx]
Repository does not exist: docker.io/sintezoid/sintezoid/nginx
ЧТЯДНТ?

Semyon
05.10.2016
14:22:36
а ты залогинен?
$ docker info | grep Username
а блеать
у тебя синтезоид дважды

Aleksandr
05.10.2016
14:23:03
а не много - два sintezoid - sintezoid/sintezoid/nginx?

Semyon
05.10.2016
14:23:08
docker push sintezoid/nginx:latest

Михаил
05.10.2016
14:23:25
docker push sintezoid/nginx:latest
The push refers to a repository [docker.io/sintezoid/nginx]
Repository does not exist: docker.io/sintezoid/nginx
не ту строку копирнул

Semyon
05.10.2016
14:23:39

Aleksandr
05.10.2016
14:23:52
https://www.docker.com/sintezoid/nginx

Михаил
05.10.2016
14:23:53
docker info | grep username
WARNING: Usage of loopback devices is strongly discouraged for production use. Either use --storage-opt dm.thinpooldev or use --storage-opt dm.no_warn_on_loop_devices=true to suppress this warning.
шта

Aleksandr
05.10.2016
14:23:55
ну так нет же репы
куда пушишь?

Semyon
05.10.2016
14:24:09