@ru_docker

Страница 430 из 610
Aleksandr
18.01.2018
06:51:09
лол

amazon s3?

Mikhail
18.01.2018
06:51:16
ну и нафиг он тебе не нужен

Aleksandr
18.01.2018
06:51:38
3 флешки на 16 гб?

Google
Aleksandr
18.01.2018
06:51:58
а то немного overhead будет

3 ноды держать ради 10 гигов

Виталий
18.01.2018
06:52:48
Амазон платный и нужно переписывать код приложения. То есть привязать себя к амазону навечно. Это не радует. И чего, Амазон s3 это панацея?

На трёх нодах ещё кубернетис кластер будет:) так что их все равно надо

Я такую архитектуру увидел на конференции:) своего пока не придумал

Увидел вот тут кстати https://www.youtube.com/watch?v=CgCLPYJRxbU

Evgeny
18.01.2018
06:57:41
10 гигов можно хоть через ссшфс на всех маунтить и через лсинкд реплицировать

Aleksandr
18.01.2018
06:57:54
Да и платность не аргумент

10 гб будет стоить копейки

Виталий
18.01.2018
07:07:43
Ок, понял. Изучу. А с каких объемов нужно начинать использовать цеф?

И я в доке читал что у цефа тоже есть апи, совместимое с s3. То есть они взаимозаменяемые или я нет?

Google
Виталий
18.01.2018
07:13:39
вообще для 10 гигов реально возьми minio и s3. Живее будет
Minio это же и так сервер (только что в гугле вычитал), зачем к нему ещё s3?

Gleb
18.01.2018
07:13:44
У меня все контейнеры стейтлесс, но мне надо где-то хранить пользовательские файлы. Аватарки, картинки к постам и тд. Для этого я планирую использовать цеф. Нормальное ли решение или какие есть альтернативы?
проблема в том что в случае ребаланса ты можешь остаться без файлов на его время. Правда при 10 гигах можно быстро и заменить чем-то, да и какой там ребаланс блин. Я умал речь хотя бы о сотнях тб при таких решениях. В принципе у нас цеф на петабайты, но попадосы были уже когда всё вроде как живое, а почитать особо с диска не можешь. Считай сам насколько критично, ну при 10 гигах, или терабайте даже вряд ли ты в это упрёшься, реально можно из бекапа поднять за несколько минут

Виталий
18.01.2018
07:15:43
Igor
18.01.2018
15:17:57
Привет, подскажите, последний докер на 9м дэбиане, обратил внимание, когда создаю сеть с указанием адреса сети docker network create —driver bridge —subnet 10.10.0.0/16 mynet01 то когда делаю docker network inspect, то поле Gateway нет, после перзапуска службы докера или сервера, поле Gateway появляется, если создаёшь сеть безуказания адреса сети, то поле Gateway отображается сразу, это фишка такая или косяк?

Vadim
18.01.2018
18:39:52
Можно ли из одного контейнера запустить команду в другом?

Alexandr
18.01.2018
18:41:35
можно

передать сокет докера внутрь контейнера

Igor
18.01.2018
18:47:39
короче в этой сети сделал два контейнера, поставил убунту и нжинкс на ней, порт нжинкса не телнетит, оба контейнера в одной сети., пинги идут

Vadim
18.01.2018
18:47:46
Anatoly
18.01.2018
18:48:44
rpc?
Remote procedure call

Igor
18.01.2018
18:49:11


Anatoly
18.01.2018
18:49:21
rpc?
Или точнее что такое запуск команжы в другом контейнере в вашем понимании?

Vadim
18.01.2018
18:50:54
Или точнее что такое запуск команжы в другом контейнере в вашем понимании?
Давайте лучше на задаче объясню. В PHP-контейнере выполняется какая-то работа. В определенный момент мне нужно запустить индексацию в Sphinx-контейнере и желательно понять когда она закончилась.

Vadim
18.01.2018
18:54:13
Google
Roman
18.01.2018
20:13:04
по-правильному тебе нужен менеджер очередей, какой-нить rabbitMQ или чето похожее

Anatoly
18.01.2018
20:15:21
по-правильному тебе нужен менеджер очередей, какой-нить rabbitMQ или чето похожее
Ага а в контейнер со сфинксом пихать какойнибудь воркер чтобы он слушал очередь и дергал сфинкс. Это будет второй костыль или подпорка первого?

Anatoly
18.01.2018
20:20:09
Это воркеры, консюмеры, очереди - это как раз нормальное решение
Оно не должно быть в отдельном контейнере а у тулы должен быть интерфейс в который можно дернуть и сделать с этим что-нибудь

Gleb
18.01.2018
20:20:38
В смысле не должно, а как ты скейлить будешь ?

Anatoly
18.01.2018
20:23:03
В смысле не должно, а как ты скейлить будешь ?
1. Я не буду скейлить 2. Как ты дёрнешь сфинкс если воркер в отдельном контейнере 3. Если у него есть управляющий интерфейс то зачем тебе очередь. 4. Сфинкс не скейлится же

В смысле не должно, а как ты скейлить будешь ?
Я там знак вопроса поставить забыл и это было в стиле а оно не должно быть?

Vadim
18.01.2018
20:29:39
ну я когда-то делал ссш из одного контейнера в другой, как раз тоже для сфинкса =) но это как раз и есть костыль
Именно так сейчас в одном месте и делается и, видимо, придется делать так же.

Я просто удивлен, что нет какого-то докеровского решения удобного.

Неужели такая редкая задача

Anatoly
18.01.2018
20:31:32
Roman
18.01.2018
20:32:19
ну да, это вам не гошечки ваши =)

Vadim
18.01.2018
20:33:05
очередь, чтобы не блочить главный процесс
В пхп как раз очередь и стоит.

Aler
18.01.2018
22:42:25
парни, а почему может не резолвить ://user/me?

в локальном/стейджинге все ок, а в кластере – беда

надо как-то явно связать их?

Admin
ERROR: S client not available

Google
Aler
18.01.2018
22:43:15
отдает при этом очень странную ошибку – 404

Roman
19.01.2018
13:18:58
Ребят здрасьте. Влетаю сразу с вопросом. Есть докерфайл, нацеленный билдить go приложение в зависимости от указнного при билде.

FROM golang as lolkek ARG app ADD $app /opt/$app WORKDIR /opt/$app RUN CGO_ENABLED=0 go build /opt/$app/$app.go FROM scratch COPY —from=lolkek /opt/$app /opt/$app ENV APP=${app} WORKDIR /opt/$app ENTRYPOINT ["./$APP"]

проблема в том чтобы передать название бинарника в entrypoint

может кто делал подобное?

Алексей
19.01.2018
13:19:05
а вот тут твой вопрос будет релевантен да

Roman
19.01.2018
13:19:33
я надеюсь

Виталий
19.01.2018
13:26:00
Всем привет! Кто настраивал мультимастер Kubernetes кластер скажите, правильно ли я понял логику всей схемы. Чтобы поднять мультимастер Kubernetes нужно настроить одну мастер ноду, далее скопировать с нее сертификаты на остальные 2 ноды. Далее, по стандартной схеме, настроить остальные два мастера на оставшихся двух нодах (при этом ключи на них генериться уже не будут, т.к. они есть) и в конце настроить реплику между всеми etcd который пуступает как БД для мастеров. В логическом завершении нужно на четвертой машине настроить баллансировщик (единую точку входа для всех 3-х мастер нод). Все правильно?

Mikhail
19.01.2018
15:18:49
Коллеги, здравствуйте! Подскажите, кто-то использовал long syntax для volumes в swarm? Это вообще работает?

Все, нашел решение. Версия в compose файле должна быть 3.2, тогда все работает прекрасно

Nikolay
19.01.2018
15:28:49
может кто делал подобное?
# Golang build environment FROM golang:alpine AS build-env # Common vars ENV SRCBASE $GOPATH/src/... # Backend vars ENV CGO_ENABLED 0 ENV GOOS linux ENV GOARCH amd64 # Prepare dirs RUN mkdir -p $SRCBASE && mkdir /dist ADD . $SRCBASE # Intermediate FROM build-env AS http-build ADD . $SRCBASE/cmd/http RUN cd $SRCBASE/cmd/http && go build -o /dist/http # Final FROM scratch COPY --from=http-build /dist/http http CMD ["./http"]

Nikolay
19.01.2018
15:30:48
а то есть без аргумента нормально билдится?

Roman
19.01.2018
15:31:01
Если руками всё прописать то да

Nikolay
19.01.2018
15:36:57
Roman
19.01.2018
15:38:12
не-а

нашел, солюшн, но сейчас упёрся в другую ошибку

FROM alpine COPY —from=lolkek /opt/$app /opt/$app RUN ln -s /opt/$app/$app /opt/$app/entrypoint WORKDIR /opt/$app ENTRYPOINT ["./entrypoint"]

но получаю ошибку:

docker: Error response from daemon: OCI runtime create failed: container_linux.go:296: starting container process caused "exec: \"./entrypoint\": permission denied": unknown.

Google
Alexandr
19.01.2018
18:26:30
chmod +x?

Andrey
19.01.2018
18:44:39
Было уже?

Since Docker is a US company, we must comply with US export control regulations. In an effort to comply with these, we now block all IP addresses that are located in Cuba, Iran, North Korea, Republic of Crimea, Sudan, and Syria.

Василий
22.01.2018
14:15:26
привет. я же правильно понимаю, чтобы не пихать в основной конфиг композа служебный контейнер,этот контейнер может запущен отдельно, но с указанием сети которую использует композ-конфиг?

как пример: веб-сервер композом задан и отдельно контейнеры для всяких админок. которые не нужны постоянно.

Slach
22.01.2018
14:50:20
https://github.com/docker/compose/issues/1896 либо не использовать docker-compose up без указания имени сервиса либо отдельный yml файл и дальше docker-compose -f services.yml

Страница 430 из 610