K█r█ll
17.07.2019
15:10:47
Maxim
17.07.2019
15:10:49
и у меня раскатан daemonsetом скриптик на ноде, который следит за этими файлами в этой папке и загружает их в google cloud storage
K█r█ll
17.07.2019
15:10:56
будет проще и можно будет реализовать отдельную логику
Maxim
17.07.2019
15:10:56
когда у них перестает меняться размер
Google
Maxim
17.07.2019
15:11:34
но я хочу проверять еще и сам факт того, что файл больше никем не открыт. Потому что некоторые игровые сервера могут писать в файл раз в 5 минут большие чанки
а мне нужно отправлять демку (файл реплея) в GCS as soon as possible ))
K█r█ll
17.07.2019
15:12:15
проще переделать вообще это, пусть буфер крутится на отдельном сервисе, который будет крутить эту логику
и там всё будет видно
George
17.07.2019
15:12:53
Вообще такое ощущение, что тебе inotify нужен
И, да, через вольюм он каким-то чудом пролезает - ядро-то одно, но есть нюансы с параметрами
Maxim
17.07.2019
15:13:28
но я могу ошибаться
George
17.07.2019
15:14:10
Почитай про docker + inotify. И реши пригодно ли для тебя это в принципе
Maxim
17.07.2019
15:14:23
поэтому приходится извне следить за этими файлами
George
17.07.2019
15:14:34
Ловить закрытие файла через него не проблема, но, в целом, если много подписавшихся на айнотифай, то песец
Maxim
17.07.2019
15:15:04
Google
Maxim
17.07.2019
15:15:18
другими словами больше 40 "писателей" в один момент не может быть
в нашем случае
George
17.07.2019
15:16:31
Тогда терпимо, кмк
Дмитрий
17.07.2019
15:17:15
буквально три дня назад поднял)
Алексей
17.07.2019
15:24:38
Konstantin
17.07.2019
15:25:22
Nikolay
17.07.2019
15:31:33
Есть такая схема: на хосте маппится директория в контейнер, одновременно, эта же директория шарится по nfs на другие хосты,и на этих хостах есть контейнеры, к которым примапплена эта директория. Права на нее установлены рекурсивно на полный доступ, также установлены acl на создания файлов с подобными правами. То есть цель - эдакий единый сторейдж для трех контейнеров на трех разных машинах. В результате все работает, но не совсем так, как хочется. При создании файла из контейнера внутри этого сторейджа не задаются нужные права, ставятся дефолтные 644, в тоже время если пробовать напрямую с хотса, то acl срабатывают. В какую сторону рыть?
Igor
17.07.2019
15:31:36
Коллеги. Сегодня я познал дзен docker и начал заливать сбилженные образы на docker hub (раньше дзен был грязный, контейнеры билдились на хостинге). У меня в проекте несколько контейнеров: node app, mongodb, imgproxy, ngnix-proxy. Как мне правильно организовать хранение этих образов на docker hub. Нужно под каждый образ заводить свой репозитарий или можно использовать один. Потыкайте мой дзен в бест практикс пожалуйста.
George
17.07.2019
15:32:19
Есть такая схема: на хосте маппится директория в контейнер, одновременно, эта же директория шарится по nfs на другие хосты,и на этих хостах есть контейнеры, к которым примапплена эта директория. Права на нее установлены рекурсивно на полный доступ, также установлены acl на создания файлов с подобными правами. То есть цель - эдакий единый сторейдж для трех контейнеров на трех разных машинах. В результате все работает, но не совсем так, как хочется. При создании файла из контейнера внутри этого сторейджа не задаются нужные права, ставятся дефолтные 644, в тоже время если пробовать напрямую с хотса, то acl срабатывают. В какую сторону рыть?
Айди пользователей, возможно ? У тебя наверняка внутри контейнера рут ?
Nikolay
17.07.2019
15:32:29
не, там свой юзер
K█r█ll
17.07.2019
15:32:43
George
17.07.2019
15:32:52
K█r█ll
17.07.2019
15:33:10
https://docs.docker.com/registry/deploying/
George
17.07.2019
15:33:10
И ещё 2000 минут сборок в месяц на общих раннерах
Этого для маленького проекта за глаза
K█r█ll
17.07.2019
15:33:51
и куча paywall'ов и ограничений в комплекте
но хотя да, дял мелкого проекта должно быть норм
George
17.07.2019
15:34:46
На самом деле в гитлабе есть прикольная штука, что можно собирать каждый компонент как отдельное репо, а потом,тогда , когда захочешь деплоить, сделать отдельный репо чисто для хранения докер образов
Дмитрий
17.07.2019
15:34:54
Есть такая схема: на хосте маппится директория в контейнер, одновременно, эта же директория шарится по nfs на другие хосты,и на этих хостах есть контейнеры, к которым примапплена эта директория. Права на нее установлены рекурсивно на полный доступ, также установлены acl на создания файлов с подобными правами. То есть цель - эдакий единый сторейдж для трех контейнеров на трех разных машинах. В результате все работает, но не совсем так, как хочется. При создании файла из контейнера внутри этого сторейджа не задаются нужные права, ставятся дефолтные 644, в тоже время если пробовать напрямую с хотса, то acl срабатывают. В какую сторону рыть?
наверное nfs client ковырять или acl (не работал с ним) в контейнере настроить.
Igor
17.07.2019
15:35:06
Да, проект небольшой. Я просто столкнулся с тем, что build тупо падал на хостинге видно из-за ограничения производительности.
Google
George
17.07.2019
15:35:20
Чтоб на тот единственный сервер раздать единственный токен с доступом "только на чтение" для связанного с этим репозиториев докер регистром
Nikolay
17.07.2019
15:35:48
Igor
17.07.2019
15:36:20
Дмитрий
17.07.2019
15:40:58
Igor
17.07.2019
15:47:08
Дмитрий
17.07.2019
15:53:30
ну это всегда так) локально все работает)
Constantine
17.07.2019
16:20:07
Привет. Изучаю докер. Сделал просто node приложение, Dockerfile и docker-compose. В compose вписал volumes. Ожидаю, что обновляя на своем хосте код приложения, он обновится и в контейнере, но такого не происходит. Что делаю не так?
Среда - Mac OS.
K█r█ll
17.07.2019
16:20:59
не забывай делать ребилд
Vladimir
17.07.2019
16:21:06
докерфайл в студию
Алексей
17.07.2019
16:21:41
Vladimir
17.07.2019
16:21:58
Constantine
17.07.2019
16:22:01
Приложение - https://pastebin.com/tapS4kZb
Compose - https://pastebin.com/4rAYEr9R
Dockerfile - https://pastebin.com/kd7J5S3q
докерфайл в студию
Приложение - https://pastebin.com/tapS4kZb
Compose - https://pastebin.com/4rAYEr9R
Dockerfile - https://pastebin.com/kd7J5S3q
K█r█ll
17.07.2019
16:23:07
Vladimir
17.07.2019
16:23:29
K█r█ll
17.07.2019
16:23:30
тебе надо сбилдить имедж по новой, и дальше заменить его на хосте
Vladimir
17.07.2019
16:23:35
код не меняется?
Google
Vladimir
17.07.2019
16:24:16
что в package.json?
Constantine
17.07.2019
16:24:33
K█r█ll
17.07.2019
16:26:28
а у тебя нет, у тебя копируется
Vladimir
17.07.2019
16:26:34
Constantine
17.07.2019
16:26:51
код не меняется?
Прошу прощения. Все верно. Надо сделать лив релоад в приложении. Спасибо!
Alexander
17.07.2019
16:31:57
а как зайти в докер с root правами?
docker exec -u 0 -t airflow_webserver_1 bash
захожу так но потом ни одна команда не запускается
George
17.07.2019
16:58:25
И
17.07.2019
18:14:26
Внутри контейнера, можно ли ка кто перезапустить nginx reload который в другом контейнере?
George
17.07.2019
18:31:56
Andrey
17.07.2019
20:13:06
И
18.07.2019
01:51:11
А
18.07.2019
08:35:32
Всем привет. Есть ли другие способы отрабатывания джава приложений в контейнере помимо закачки мавена в контейнер?
Алексей
18.07.2019
08:40:00
Вообще собирают обычно родном одним контейнером а запускают в другом
Google
Baha
18.07.2019
08:46:27
всем привет, как можно упаковать ui на nodejs в образ? для билда используется yarn, пробовал использовать офф.образ node но в нем yarn всегда выдает ошибки на зависимости или модули, как вообще правильней упокавывать nodejs образ?
inqfen
18.07.2019
08:47:05
файлики скопировать
А то что yarn ругается - значит у тебя что-то не то с зависимостями или с командой