@docker_ru

Страница 1001 из 1375
Georgiy
24.01.2019
20:40:50
даже порой больше

там на самом деле более важный вопрос - как часто вы будете перекатываться

Google
Alexey
24.01.2019
20:42:41
там на самом деле более важный вопрос - как часто вы будете перекатываться
Ну, понятно, там от нейронок зависит Не совсем понимаю что это означает, но... Насколько понимаю я (если имеется в виду обновления/изменения), не очень часто )

Georgiy
24.01.2019
20:42:54
именно обновления

Alexey
24.01.2019
20:43:05
Georgiy
24.01.2019
20:43:14
потому что это все придеться перезакачивать каждый раз

bama^boy
24.01.2019
20:43:49
потому что это все придеться перезакачивать каждый раз
если подключается как volume, то нет Вон тот же hdfs можно по NFS монтировать

Alexey
24.01.2019
20:44:14
Хм... Ну.. Тогда все же я думаю будет удобнее мне скачивать из вне для начала, а уже когда все будет готово, то можно в докер внутрь запихать, чтоб клиент не мучался

bama^boy
24.01.2019
20:44:21
данные можно динамически изменять без перезапуска контейнера и пересборки образа

Georgiy
24.01.2019
20:44:47
давно не получали локи на сисколлах?

данные можно динамически изменять без перезапуска контейнера и пересборки образа
я с нейронками не сталкивался, но догадываюсь что там как и у нас нет понятия «изменить», а есть понятие «пересчитать заного»

так что все равно придеться решать кейс доставки их до хранилища

bama^boy
24.01.2019
20:46:40
монтировать по nfs это фейспальм
вполне себе нормальная практика, смотря для чего конечно локи скорей всего из-за неправильной архитектуры приложения, если много процессов работает с 1 файлом, например

Google
Georgiy
24.01.2019
20:47:33
вот сеть моргнет, и у вас висящий сисколл с неприбивающимся процессом по девятке

bama^boy
24.01.2019
20:47:54
я работаю с AWS EFS, это сетевая FS от амазона, проблем с ней почти нет, последний раз было что-то с локами около полугода назад

вот сеть моргнет, и у вас висящий сисколл с неприбивающимся процессом по девятке
так таймауты выставляются, плюс последняя версия NFS 4 сильно лучше старых

Georgiy
24.01.2019
20:49:40
я работаю с AWS EFS, это сетевая FS от амазона, проблем с ней почти нет, последний раз было что-то с локами около полугода назад
это если вы можете гарантировать стабильность(а стабильность это чаще исключение из правил), и если модуль в ядре для этого драйвера fs может отдать на лаг io error

bama^boy
24.01.2019
20:53:28
я не говорю, что nfs - это серебряная пуля, это один из широко используемых стандартов в индустрии есть еще всякие iscsi nas и т.п.

George
24.01.2019
20:56:24
Ну... Хорошо. В общем, у меня есть обученная нейронка, есть к нему веса (Если грубо, то это большая матрица из чиселок, весит почти 600 Мб). Надо все это завернуть в докер и поднять его в облаке. Вопрос в том, надо ли веса запихивать в образ докера или нет?
у тебя вариантов два 1. хранить веса в сторедже типа S3. Внутри твоего контейнера несколько ручек, которые позволяют обновлять веса, и подгружать определенную версию 2. хранить веса в докер образе. При появлении новой модели выпускать новый образ с новой версией. Его и деплоить

как бы зависит от постановки задачи. Как часто тебе нужно катить новую версию модели, нужен ли откат, умеет ли контейнер переобучаться или только использует предрасчитанные веса

Понял. И чтобы сервисы из докера видели файлы скачанные из внешних источников, надо, к примеру, использовать VOLUME в Dockerfile?
VOLUME внутри докерфайл это до некоторой степени фикция. Во-первых, это аннотация для пользователя докер образа. Во-вторых, эта директива создает БЕЗЫМЯННЫЙ volume. От которого толку пока ты что-то явно не напишешь - НОЛЬ

Alexey
24.01.2019
20:58:20
Новые версии не слишком часто, откаты пока не важны, использует только предрасчитанные веса

George
24.01.2019
20:59:14
в смысле - одной версии?

Alexey
24.01.2019
20:59:21
Да

George
24.01.2019
21:00:19
тогда вообще забей и вшивай веса внутрь образа

Alexey
24.01.2019
21:02:19
Понял, спасибо всем большое! ) И еще, есть у кого может ссылка рядом с примером из практики как все это сделать от и до для нейронных сетей? Я просто гуглю и там два варианта: либо это использование уже сгенеренных образов, либо создание что-то вроде почтового сервиса с подключением БД

George
24.01.2019
21:02:33
ээээ. не понимаю

я вообще все модели собирал из базового alpine. Путем доустановки всего необходимого ПО

Alexey
24.01.2019
21:03:23
Ну... Скажу так, читать про докер я начал часа 3 назад ) В теории что да как я вроде понял, на практике, не очень понимаю как это устроено

George
24.01.2019
21:03:55
кратко - докер - это типа git, но для бинарных файлов

образ = набор слоев файловых систем.

Alexey
24.01.2019
21:06:48
То есть получается sudo docker run ... *** поместит все файлы из папки *** в образ, а при запуске образа выполнятся все инструкции из Dockerfile?

Google
Artur
24.01.2019
21:07:10
почти

на основе докерфайла "копмилится" имейдж

Alexey
24.01.2019
21:07:35
Страшные вещи, как docker composer пока не считаю )

Понял, спасибо

Artur
24.01.2019
21:08:14
а docker run уже запускает этот имейдж

George
24.01.2019
21:08:23
docker run запускает его в рантайм

Alexey
24.01.2019
21:08:44
Ой, да, перепутал

George
24.01.2019
21:10:50
причем ты можешь выбрать какую программу запустить из образа путем переопределения entrypoint ИЛИ cmd, ИЛИ обоих параметров

Alexey
24.01.2019
21:11:27
Ага, видел про CMD, спасибо

George
24.01.2019
21:11:50
там много нюансов )

Artur
24.01.2019
21:11:54
entrypoint не переопределяется же

при запуске

George
24.01.2019
21:12:32
кратко: - может взорваться где угодно - entrypoint обычно для постоянной части (например, полный путь к бинарю) - cmd - преимущественно для переменной части (например, аргументы и ключи)

entrypoint не переопределяется же
ты не прав. Есть отдельный ключ коммандной строки docker run

Artur
24.01.2019
21:15:24
"Note: you can override the ENTRYPOINT setting using --entrypoint, but this can only set the binary to exec (no sh -c will be used)." не стоит так делать

George
24.01.2019
21:16:42
например, при глубокой отладке docker образов

Artur
24.01.2019
21:18:19
какае-то не правильная отладка у вас

и как после такой отладки убиваете контейнер ?

Google
Artur
24.01.2019
21:18:58
киллом ?

George
24.01.2019
21:23:33
киллом ?
docker run -it --rm --entrypoint /bin/bash nginx

например, удобно чтобы доустановить пакеты ) и проверить сразу работоспособность

Sergey
24.01.2019
22:40:04
https://github.com/pyouroboros/ouroboros

Юзал кто?

Professor
25.01.2019
00:23:17
Кто использовал dnsmasq, посмотрите, изнутри контейнера разве не должен грепаться DNS-сервер локальный?

https://pastebin.com/DkcETPJ4

Илья
25.01.2019
04:14:39
Три новых юзера, на ботов прям смахивают))

Den
25.01.2019
05:36:15
Три новых юзера, на ботов прям смахивают))
когда насосдавал контейнеров без указания имени

Илья
25.01.2019
05:36:25
)

Dmitry
25.01.2019
05:39:41
Привет! Подскажите пожалуйста, как я могу обновить только последний слой образа? Проблема в том, что мне нужно обновить requirements.txt, но проект целиком билдить нельзя (это займет очень много времени). Может быть как-то можно установить pip3 пакет, чтобы они сохранились после перезапуска образа? Спасибо

Dmitry
25.01.2019
05:56:11
FROM ubuntu:18.04 ENV LANG C.UTF-8 ENV PYTHONUNBUFFERED 1 ENV C_FORCE_ROOT true # Install dependencies RUN apt-get update \ && apt-get install -y git \ && apt-get install -y python3-dev python3-pip \ && apt-get install -y binutils libproj-dev gdal-bin \ && cd /usr/local/bin \ && ln -s /usr/bin/python3 python \ && pip3 install --upgrade pip RUN git clone https://git.skewed.de/count0/graph-tool.git # graph-tool compile dependencies RUN apt-get update \ && apt-get install -y gcc libboost-all-dev \ && apt-get install -y autotools-dev automake pkg-config \ && apt-get install -y libcgal-dev libcairo2-dev cairomm-1.0 \ && apt-get install -y python3-cairo-dev libsparsehash-dev RUN pip install numpy scipy # graph-tool compile RUN cd graph-tool && ./autogen.sh && ./configure && make && make install # Project specific setups RUN mkdir /code WORKDIR /code ADD . /code RUN pip3 install -r requirements.txt

ildar
25.01.2019
05:57:18
кошерный докерфайл. при изменении файлов в рабочей папке изменятся только два последних слоя.

вопрос решён?

Дмитрий
25.01.2019
05:57:56
Ну если раньше докер собирался и остался кэш - то можно и заново запустить )

Google
ildar
25.01.2019
06:00:23
он начинает тащить убунту и я боюсь
Арча не боишься? ) > tiagopeixoto/graph-tool Arch GNU/Linux container with graph-tool installed

Dmitry
25.01.2019
06:00:48
Арча не боишься? ) > tiagopeixoto/graph-tool Arch GNU/Linux container with graph-tool installed
да я и так на арче, только крутиться то это будет на убунте

ildar
25.01.2019
06:01:31
это говно компилируется 2 дня
какой командой запускаешь сборку? у тебя кэш должен сохраняться с предыдущих раз.

Dmitry
25.01.2019
06:01:38
и не уверен, что нужный софт есть на в этом пакете (последня функция появилась только в гите совсем недавно, а без нее кладбище гроб)

какой командой запускаешь сборку? у тебя кэш должен сохраняться с предыдущих раз.
вероятно я чистил кэш через docker system prune запускаю через sudo docker-compose build

Vladislav
25.01.2019
06:03:19
Я что-то запутался, разве прун чистит сборочный кэш? ?

Мне всегда казалось, что надо флаг при сборке указать...

ildar
25.01.2019
06:04:02
$ docker system prune WARNING! This will remove: - all stopped containers - all networks not used by at least one container - all dangling images - all dangling build cache

Vladislav
25.01.2019
06:04:34
Ооо, видать где-то в последней добавили

Страница 1001 из 1375