
Ростислав
10.03.2017
20:44:09
я с Тюмени живу в Тюмени)

Anton
10.03.2017
20:47:49
А в golang чатике не нашлось отсюда, походу митап по докеру будет

Dmitriy
10.03.2017
23:04:08
https://portworx.com/ кто-нибудь пробовал эту штуку?

Ростислав
10.03.2017
23:16:37
кто-нибудь знает как ускорить процесс установки зависимостей при создании образа? т.е. каждый раз при создании образа приходится выполнять bundle install и устанавливать все гемы, можно ли было бы где-то их хранить как тома?

Google

Aleksey
11.03.2017
04:46:12

Kirill
11.03.2017
05:19:14

Алексей
11.03.2017
05:27:55
ребят завязываем с перекличкой бывших/текущих тюменцев.

Ростислав
11.03.2017
05:47:44
уже голову сломал, вот у меня есть папка webapp/public/ - в ней находятся файлы загруженые в приложении, я конечно наивно предположил что можно легко сделать -v storage/public:webapp/public и таким образом данные станут перманентными, но проблема в том, что когда я так делаю, папка storage/public заменяет webapp/public и все что там было удаляется
как можно сохранить, то что изначально было в папке контейнера и после дополнять?

Denis
11.03.2017
08:42:15
или если тебе хранить аплоады то монтировать не в паблик а куданить типа public/upload
в таком случае у тебя остается webapp/public
а монтируешь в webapp/public/upload(images|files|docs) e.t.c

Ростислав
11.03.2017
08:45:30
попробую, спасибо)

John
11.03.2017
12:07:46
Привет всем!
Перебрасываю сокет в контейнер. Вот так: -v /var/run/docker.sock:/var/run/docker.sock
Как лучше, бинарник докера тоже перебросить :

Google

John
11.03.2017
12:11:06
-v $(which docker):/bin/docker
или изначально поставить в образ?

ptchol
11.03.2017
12:11:36
Опасный

John
11.03.2017
12:12:26
То есть?
Вы про сокет или про бинарник?

ptchol
11.03.2017
12:13:46
Дать сокет докера в непривелигерованный контейнер значит выдать рута на хосте

John
11.03.2017
12:16:42
Да, вы правы, но просто есть необходимость создавать и управлять контейнерами из контейнера
Может есть лучший способ сделать тоже самое?

ptchol
11.03.2017
12:19:13
Если можно тащить новые сущности в проект можно взять что то простое типа номада, грузить туда ямлик с описанием сервиса а он уже будет запускать апп. Не ?

John
11.03.2017
12:27:32
Совершенно верно, просто пока не дошел до сервисов, балуюсь отдельными контейнерами. Более того, все это будет работать в private network, ничего не будет лезть наружу, кроме одного контейнера, у которого нет доступа к сокету и соответственно к хосту. А на счет номада, вы про это: https://github.com/hashicorp/nomad ?

ptchol
11.03.2017
12:28:20
Да
К сожалению мне кажется нет маленьких простых безопасных и удобных решений для вашей задачи

John
11.03.2017
12:34:46
Хорошо, большое спасибо за помощь, буду изучать!


Ростислав
12.03.2017
09:40:25
Подскажите пожаулйста, я вроде разорбался с докером, создал docker-compose файл в нем описал app и db сервисы, запустил и все работает, однако таких приложений у меня штук 10, я могу проделывать тепеьр такое с каждым, но это все я делаю у себя на локальной машине, их еще нужно поместить на сервак и сделать тоже самое, как мне объяснил один товарищ чтобы деплоить их на сервак желателньо иметь gitlab + CI а для управления контейнеров kubernetes, это все здорого но для такого количетсва небольших проектов, мне кажется столько работы будет избыточной, веро ли я мыслю?
если верно то вопрос поставки приложения на сервак меня все еще волнует, в старинку мы использовали mina для деплоя и выполнения миграций и компиляции ассетов, но соответственно все настраивалось руками на серваке, я думаю над вариантом, использовать мину для копирования файлов с гита на сервак, а инструкции запуска мигарция и ассетов (которые теперь выполняются при сборке образа) заменить на запуск docker-compose up
такая идея хорошая или плохая и если плохая то почему?


Dmitry
12.03.2017
10:41:09
Подскажите пожаулйста, я вроде разорбался с докером, создал docker-compose файл в нем описал app и db сервисы, запустил и все работает, однако таких приложений у меня штук 10, я могу проделывать тепеьр такое с каждым, но это все я делаю у себя на локальной машине, их еще нужно поместить на сервак и сделать тоже самое, как мне объяснил один товарищ чтобы деплоить их на сервак желателньо иметь gitlab + CI а для управления контейнеров kubernetes, это все здорого но для такого количетсва небольших проектов, мне кажется столько работы будет избыточной, веро ли я мыслю?
Ansible

Anton
12.03.2017
11:22:05
Rancher в качестве оркестратора - разворачивается с подъема двух контейнеров в докере: один для Rancher-server, второй для Rancher-агента на докер-хосте, где будут непосредственно крутиться контейнеры

Aleksey
12.03.2017
11:24:34
Кстати! Вопрос траффика. Если я буду собирать контейнеры на gitlab CI, то будет тянуться весь гиг контейнера, или только измененные слои?

Google

Anton
12.03.2017
11:25:24
если базовые и предыдущие слои закешировались, то будут тянуться только изменённые

Aleksey
12.03.2017
11:26:05

Алексей
12.03.2017
11:26:12
если воркер только один будет кеш слоёв.

Aleksey
12.03.2017
11:26:35
чьих воркеров?

Алексей
12.03.2017
11:26:39
гитлаба

Anton
12.03.2017
11:27:14
гитлаб умеет локальный регистри

Aleksey
12.03.2017
11:27:31
Я удалённо

Anton
12.03.2017
11:28:08

Aleksey
12.03.2017
11:28:17
так что я имел в виду облачный гитлаб и их бесплатный CI, ага

Anton
12.03.2017
11:28:32

Anton
12.03.2017
11:29:41
я гиговые контейнеры пока видел только у Microsoft :)

Aleksey
12.03.2017
11:30:39
Ну, я ещё не оптимизировал, может.. Базовый - python:2.7

Anton
12.03.2017
11:30:51
можно использовать в качестве базового слоя какой-нить Alpine, даже готовых контейнеров полно с тегом :alpine

Aleksey
12.03.2017
11:31:27
Да. Это самый подходящий вариант, походу

Anton
12.03.2017
11:32:03

Aleksey
12.03.2017
11:32:37
Смотрел. Какая-то вариация дебиана. Уже не помню
но мои 10 слоёв добавляют как-то слишком много сверху
Ну да. базовый - buildpack-deps:jessie

Google

Admin
ERROR: S client not available

Anton
12.03.2017
11:40:29
можно попробовать сократить количество слоёв ещё, не знаю, насколько это сократит размер контейнера
+ по минимуму пихать в один контейнер те данные, которые можно вынести куда-то вовне: в другой контейнер или в какой-нить Amazon S3
мультилайн-команды, вместо множественных RUN, удалять лишние пакеты и файлы в процессе подготовки контейнеров и т.п.

Aleksey
12.03.2017
11:56:40
Да, спасибо

ptchol
12.03.2017
12:57:30
Ребят у меня вопрос про докер сворм мод
если я правильно понимаю, все ноды в сворме, это ноды которые могут потенциально стать менеджером, когда текущий менеджер умрёт
у нас запустится рафт, произойдёт мажорити кворум и выберут нового менеджера
так ?

Алексей
12.03.2017
12:58:50
Менеджеров может быть больше одного

Denis
12.03.2017
12:59:13
только как сказал алексей ) у тебя для нормальной работы сварма нужно 3 менеджера

ptchol
12.03.2017
13:00:01
исходя из того что чем больше рафт тем он медленее сходится, и в свою очередь ноды могут чаще из строя выходить, не будет ли у нас проблем с доступностью сервиса потому что периодически у нас там "выборы" идут

Denis
12.03.2017
13:00:08
и они между собой решают кто главный
выборы там идут без митингов агитации и прочего ) решается все за милисекунды ) этож не россия
сервис в это время не падает
просто меняется главный менеджер

ptchol
12.03.2017
13:01:40
мммм

Denis
12.03.2017
13:01:50
просто в это время нельзя управлять кластером / скейлить добавлять ноды

Google

ptchol
12.03.2017
13:02:09
Я как бы понимаю что выборы ходят между 3мя нодами которые 2 ричибл и одна настоящий менеджер

Denis
12.03.2017
13:02:11
но ты врят ли сможешь это заметить при штатной ситуации )
ну да ) а сервису запущенному пох ) он уже работает и работает
порты открыты, запросы принимаются

ptchol
12.03.2017
13:03:06
тоесть мы должны сами контролить доступность нод менеджеров и докидывать их
или промоутить до менеджера

Denis
12.03.2017
13:07:40
нет
менеджеры сами решают кто главный