
K█r█ll
17.07.2019
15:10:47

Maxim
17.07.2019
15:10:49
и у меня раскатан daemonsetом скриптик на ноде, который следит за этими файлами в этой папке и загружает их в google cloud storage

K█r█ll
17.07.2019
15:10:56
будет проще и можно будет реализовать отдельную логику

Maxim
17.07.2019
15:10:56
когда у них перестает меняться размер

Google

Maxim
17.07.2019
15:11:34
но я хочу проверять еще и сам факт того, что файл больше никем не открыт. Потому что некоторые игровые сервера могут писать в файл раз в 5 минут большие чанки
а мне нужно отправлять демку (файл реплея) в GCS as soon as possible ))

K█r█ll
17.07.2019
15:12:15
проще переделать вообще это, пусть буфер крутится на отдельном сервисе, который будет крутить эту логику
и там всё будет видно

George
17.07.2019
15:12:53
Вообще такое ощущение, что тебе inotify нужен
И, да, через вольюм он каким-то чудом пролезает - ядро-то одно, но есть нюансы с параметрами

Maxim
17.07.2019
15:13:28
но я могу ошибаться

George
17.07.2019
15:14:10
Почитай про docker + inotify. И реши пригодно ли для тебя это в принципе

Maxim
17.07.2019
15:14:23
поэтому приходится извне следить за этими файлами

George
17.07.2019
15:14:34
Ловить закрытие файла через него не проблема, но, в целом, если много подписавшихся на айнотифай, то песец

Maxim
17.07.2019
15:15:04

Google

Maxim
17.07.2019
15:15:18
другими словами больше 40 "писателей" в один момент не может быть
в нашем случае

George
17.07.2019
15:16:31
Тогда терпимо, кмк

Дмитрий
17.07.2019
15:17:15
буквально три дня назад поднял)

Алексей
17.07.2019
15:24:38

Konstantin
17.07.2019
15:25:22

Nikolay
17.07.2019
15:31:33
Есть такая схема: на хосте маппится директория в контейнер, одновременно, эта же директория шарится по nfs на другие хосты,и на этих хостах есть контейнеры, к которым примапплена эта директория. Права на нее установлены рекурсивно на полный доступ, также установлены acl на создания файлов с подобными правами. То есть цель - эдакий единый сторейдж для трех контейнеров на трех разных машинах. В результате все работает, но не совсем так, как хочется. При создании файла из контейнера внутри этого сторейджа не задаются нужные права, ставятся дефолтные 644, в тоже время если пробовать напрямую с хотса, то acl срабатывают. В какую сторону рыть?


Igor
17.07.2019
15:31:36
Коллеги. Сегодня я познал дзен docker и начал заливать сбилженные образы на docker hub (раньше дзен был грязный, контейнеры билдились на хостинге). У меня в проекте несколько контейнеров: node app, mongodb, imgproxy, ngnix-proxy. Как мне правильно организовать хранение этих образов на docker hub. Нужно под каждый образ заводить свой репозитарий или можно использовать один. Потыкайте мой дзен в бест практикс пожалуйста.


George
17.07.2019
15:32:19
Есть такая схема: на хосте маппится директория в контейнер, одновременно, эта же директория шарится по nfs на другие хосты,и на этих хостах есть контейнеры, к которым примапплена эта директория. Права на нее установлены рекурсивно на полный доступ, также установлены acl на создания файлов с подобными правами. То есть цель - эдакий единый сторейдж для трех контейнеров на трех разных машинах. В результате все работает, но не совсем так, как хочется. При создании файла из контейнера внутри этого сторейджа не задаются нужные права, ставятся дефолтные 644, в тоже время если пробовать напрямую с хотса, то acl срабатывают. В какую сторону рыть?
Айди пользователей, возможно ? У тебя наверняка внутри контейнера рут ?

Nikolay
17.07.2019
15:32:29
не, там свой юзер

K█r█ll
17.07.2019
15:32:43

George
17.07.2019
15:32:52

K█r█ll
17.07.2019
15:33:10
https://docs.docker.com/registry/deploying/

George
17.07.2019
15:33:10
И ещё 2000 минут сборок в месяц на общих раннерах
Этого для маленького проекта за глаза

K█r█ll
17.07.2019
15:33:51
и куча paywall'ов и ограничений в комплекте
но хотя да, дял мелкого проекта должно быть норм

George
17.07.2019
15:34:46
На самом деле в гитлабе есть прикольная штука, что можно собирать каждый компонент как отдельное репо, а потом,тогда , когда захочешь деплоить, сделать отдельный репо чисто для хранения докер образов

Дмитрий
17.07.2019
15:34:54
Есть такая схема: на хосте маппится директория в контейнер, одновременно, эта же директория шарится по nfs на другие хосты,и на этих хостах есть контейнеры, к которым примапплена эта директория. Права на нее установлены рекурсивно на полный доступ, также установлены acl на создания файлов с подобными правами. То есть цель - эдакий единый сторейдж для трех контейнеров на трех разных машинах. В результате все работает, но не совсем так, как хочется. При создании файла из контейнера внутри этого сторейджа не задаются нужные права, ставятся дефолтные 644, в тоже время если пробовать напрямую с хотса, то acl срабатывают. В какую сторону рыть?
наверное nfs client ковырять или acl (не работал с ним) в контейнере настроить.

Igor
17.07.2019
15:35:06
Да, проект небольшой. Я просто столкнулся с тем, что build тупо падал на хостинге видно из-за ограничения производительности.

Google

George
17.07.2019
15:35:20
Чтоб на тот единственный сервер раздать единственный токен с доступом "только на чтение" для связанного с этим репозиториев докер регистром

Nikolay
17.07.2019
15:35:48

Igor
17.07.2019
15:36:20

Дмитрий
17.07.2019
15:40:58

Igor
17.07.2019
15:47:08

Дмитрий
17.07.2019
15:53:30
ну это всегда так) локально все работает)

Constantine
17.07.2019
16:20:07
Привет. Изучаю докер. Сделал просто node приложение, Dockerfile и docker-compose. В compose вписал volumes. Ожидаю, что обновляя на своем хосте код приложения, он обновится и в контейнере, но такого не происходит. Что делаю не так?
Среда - Mac OS.

K█r█ll
17.07.2019
16:20:59
не забывай делать ребилд

Vladimir
17.07.2019
16:21:06
докерфайл в студию

Алексей
17.07.2019
16:21:41

Vladimir
17.07.2019
16:21:58

Constantine
17.07.2019
16:22:01
Приложение - https://pastebin.com/tapS4kZb
Compose - https://pastebin.com/4rAYEr9R
Dockerfile - https://pastebin.com/kd7J5S3q
докерфайл в студию
Приложение - https://pastebin.com/tapS4kZb
Compose - https://pastebin.com/4rAYEr9R
Dockerfile - https://pastebin.com/kd7J5S3q

K█r█ll
17.07.2019
16:23:07

Vladimir
17.07.2019
16:23:29

K█r█ll
17.07.2019
16:23:30
тебе надо сбилдить имедж по новой, и дальше заменить его на хосте

Vladimir
17.07.2019
16:23:35
код не меняется?

Google

Vladimir
17.07.2019
16:24:16
что в package.json?

Constantine
17.07.2019
16:24:33

K█r█ll
17.07.2019
16:26:28
а у тебя нет, у тебя копируется

Vladimir
17.07.2019
16:26:34

Constantine
17.07.2019
16:26:51
код не меняется?
Прошу прощения. Все верно. Надо сделать лив релоад в приложении. Спасибо!

Alexander
17.07.2019
16:31:57
а как зайти в докер с root правами?
docker exec -u 0 -t airflow_webserver_1 bash
захожу так но потом ни одна команда не запускается

George
17.07.2019
16:58:25

И
17.07.2019
18:14:26
Внутри контейнера, можно ли ка кто перезапустить nginx reload который в другом контейнере?

George
17.07.2019
18:31:56

Andrey
17.07.2019
20:13:06

И
18.07.2019
01:51:11

А
18.07.2019
08:35:32
Всем привет. Есть ли другие способы отрабатывания джава приложений в контейнере помимо закачки мавена в контейнер?

Алексей
18.07.2019
08:40:00
Вообще собирают обычно родном одним контейнером а запускают в другом

Google

Baha
18.07.2019
08:46:27
всем привет, как можно упаковать ui на nodejs в образ? для билда используется yarn, пробовал использовать офф.образ node но в нем yarn всегда выдает ошибки на зависимости или модули, как вообще правильней упокавывать nodejs образ?

inqfen
18.07.2019
08:47:05
файлики скопировать
А то что yarn ругается - значит у тебя что-то не то с зависимостями или с командой