@docker_ru

Страница 1194 из 1375
fso
23.04.2019
14:17:12
был тут парень с 1000 контейнеров в сворме https://t.me/docker_ru/118405
спасибо за наводку, попробую вокруг этого потанцевать

Владимир
23.04.2019
14:19:02
PHP-FPM пишет логи в stdout и я вижу реальные ошибки на проде/локали

но нифига не показывает

Google
Владимир
23.04.2019
14:36:48
Вывода там много, хлам всякий, щас запущу счиста и выберу последнее

Apr 23 14:40:07 docker-dev dockerd[4983]: time="2019-04-23T14:40:07.236483776Z" level=info msg="ignoring event" module=libcontainerd namespace=moby topic=/tasks/delete type="*events.TaskDelete" Apr 23 14:40:08 docker-dev dockerd[4983]: time="2019-04-23T14:40:08.482960061Z" level=info msg="ignoring event" module=libcontainerd namespace=moby topic=/tasks/delete type="*events.TaskDelete" Apr 23 14:40:10 docker-dev dockerd[4983]: time="2019-04-23T14:40:10.642823549Z" level=info msg="ignoring event" module=libcontainerd namespace=moby topic=/tasks/delete type="*events.TaskDelete"

Потихоньку копится такое

Artem
23.04.2019
14:44:11
всем привет. вопрос наверное не в тему, совсем, но может кто настраивал xdebug + phpstorm + vagrant?

Фамилию
23.04.2019
14:44:46
Добрый день подскажите плиз docker ps

c0a3de69e93d

docker run -i - t c0a3de69e93d /bin/bash

Unable to find locally не могу подключится

Viktor
23.04.2019
14:46:09
exec а не run, если ты хоешь в контейнер зайти

Владимир
23.04.2019
14:48:39
Решил пойти простым путём: перезагрузил сервер

level=error msg="attach failed with error: error attaching stderr stream: write unix /var/run/docker.sock->@: write: broken pipe"

Вот такое еще увидал

Google
Владимир
23.04.2019
15:05:34
Ошибку нашёл: я забыл примонтировать исполняемые файлы, потерял их в нескольких конфигурационных файлах

Viktor
23.04.2019
15:13:06
попробуй php-fpm'у сказать отправлять логи в /dev/stderr, /dev/stdout, сможешь их нормально видеть с хоста (если они есть)

Александр
23.04.2019
15:27:44
всем привет, столкнулся со следующей проблемой есть докер с json-file лог драйвером и включённой ротацией. лимит, скажем, 4мб. в контейнере кидаю в stdout два сообщения по 3мб. первое корректно умещается в первый файл, а второе сообщение уже делится на два куска по 1мб и 2мб соответственно и записывается в разные файлы, получается битый лог, который я не могу распарсить. есть ли возможность отключить это дробление сообщения?

George
23.04.2019
16:30:47
всем привет, столкнулся со следующей проблемой есть докер с json-file лог драйвером и включённой ротацией. лимит, скажем, 4мб. в контейнере кидаю в stdout два сообщения по 3мб. первое корректно умещается в первый файл, а второе сообщение уже делится на два куска по 1мб и 2мб соответственно и записывается в разные файлы, получается битый лог, который я не могу распарсить. есть ли возможность отключить это дробление сообщения?
* Не используй json-file * Поставь лимит побольше * Шли логи напрямую в эластик из приклада (не бест практис, но терпимо) * И ещё момент - какая полезность слать логи такого размера ? Если это единое сообщение, то может его слать в json виде с определенным ключом, чтоб потом можно было собрать в кучу ?

Александр
23.04.2019
16:48:23
1) какой драйвер стоит использовать, чтобы ротация не рубила сообщения? 2) лимит можно поставить побольше, эти размеры скорее для очевидного примера проблемы было. она воспроизводится и при крупном файле и меньшем размере лога, хоть и реже 3) сейчас работает как раз напрямую, только в logstash. хотим от этого отказаться, ибо udp теряется, а tcp долго. так планировали на кубы сбросить проблему доставки логов. 4) это уже бизнес хочет. нам присылают временами пакеты размерами до мегабайта, надо доставить в эластик, чтобы можно было увидеть его. а вот предложение немного не понял мы сейчас выдаем такого вида лог: {"level":"info","@timestamp":"2019-04-23T19:43:14.69257874+03:00","message":"xxxxxxxxxxxxx","namespace":"logger-testing","service":"logger"} при дроблении на ротации он в логах докера выглядит как-то так файл1 { "log":"{\"level\":\"info\",\"@timestamp\":\"2019-04-23T19:43:14.69257874+03:00\",\"message\":\"xxxxxx", "stream":"stdout", "time":"2019-04-23T15:04:26.951582281Z" } файл2 { "log":"xxxxxxx\",\"namespace\":\"logger-testing\",\"service\":\"logger\"}", "stream":"stdout", "time":"2019-04-23T15:04:26.951582281Z" }

George
23.04.2019
17:16:18
1) какой драйвер стоит использовать, чтобы ротация не рубила сообщения? 2) лимит можно поставить побольше, эти размеры скорее для очевидного примера проблемы было. она воспроизводится и при крупном файле и меньшем размере лога, хоть и реже 3) сейчас работает как раз напрямую, только в logstash. хотим от этого отказаться, ибо udp теряется, а tcp долго. так планировали на кубы сбросить проблему доставки логов. 4) это уже бизнес хочет. нам присылают временами пакеты размерами до мегабайта, надо доставить в эластик, чтобы можно было увидеть его. а вот предложение немного не понял мы сейчас выдаем такого вида лог: {"level":"info","@timestamp":"2019-04-23T19:43:14.69257874+03:00","message":"xxxxxxxxxxxxx","namespace":"logger-testing","service":"logger"} при дроблении на ротации он в логах докера выглядит как-то так файл1 { "log":"{\"level\":\"info\",\"@timestamp\":\"2019-04-23T19:43:14.69257874+03:00\",\"message\":\"xxxxxx", "stream":"stdout", "time":"2019-04-23T15:04:26.951582281Z" } файл2 { "log":"xxxxxxx\",\"namespace\":\"logger-testing\",\"service\":\"logger\"}", "stream":"stdout", "time":"2019-04-23T15:04:26.951582281Z" }
Я бы сделал как

1. journald

2. Слал бы тем же флюентом в грейлог или эластик. Агента раскатать на всех докер хостах

3. Смотрел логи уже в грейлог

Александр
23.04.2019
17:38:14
Пробовал до этого флюентом логи читать, тот не выдерживал тестовой нагрузки: падал или терял логи. Можно попробовать через journald, но меня флюент не впечатлил, хотя тут скорее всего из-за того, что приготовил его тогда неверно. Сейчас пробовал логи докера -> Filebeat на хосте -> эластик, все устраивает по большей части, кроме вот этой проблемы с ротацией.

George
23.04.2019
17:56:03
Вместо файлбита можно журналбит

Александр
23.04.2019
18:00:39
Интересно, завтра гляну подробнее, спасибо

George
23.04.2019
18:03:01
Журналди тоже умеет в ротацию

Yuriy
23.04.2019
19:58:51
Народ. Не подскажите как изменить пробилдованый image. К примеру есть image который был пробилдован с командой (EXPOSE 444 #порт ) через Dockerfile, проблема в том что во время билда в image загонялись коекакие скрипты итд. Их у меня нет.

Yuriy
23.04.2019
20:06:30
Слоев будет много , по другому нельзя ?

George
23.04.2019
20:07:43
Сделай squash

В теории ты можешь взять любой слой и отнаследоваться от него

Но это не на пять минут реверса

Google
Yuriy
23.04.2019
20:10:43
Сделай squash
Спасибо , буду пробовать, я хотел как раз быстро сделать ))) но чувствую придется обходными путями с сжиманием итд.

George
23.04.2019
20:10:53
docker inspect тебе в помощь :-)

Yuriy
23.04.2019
20:11:38
Да я смотрел что там внутри. Скрипт который кидает много чего во внутрь а потом удаляется. В этом то и вся заморока, так бы свой скомпозил уже давно (((.

Dmitry
23.04.2019
22:06:33
Привет. Подскажите, в случае, если для проекта нужно организовать работу нескольких сервисов, для этого необходимо использовать несколько образов и docker-compose?

Как собрать образы для разных сервисов - например веб-сервер, uwsig-сервер, сервер БД? Для этого нужно несколько dockerfile?

Bocharnikov
24.04.2019
03:08:53
кто ставил в прод PLESK в докере?

Евгений
24.04.2019
05:47:06
Парни, подскажиет. У меня есть дамп баз (1 файлик) где баз штук 5. я хочу сделать инициализацию через волюм - ./www/db/test:/docker-entrypoint-initdb.d Это легально? Правильно? Стутс после билда пишет реди конекшн, но видно, что еще не все базы достроились. И войти через пма не могу (mysqli_real_connect(): (HY000/2002): Connection refused). С базой на 20 метров все прошло на ура...

в ЕНВ прописываю 1 из баз... - MYSQL_DATABASE=kannel_db может вообще не нужно?

Dmitry
24.04.2019
05:49:35
В идеале - на каждый сервис - отдельный докер файл и отдельный образ
Как будет лучше расположить эти файлы в рамках одного проекта? Другими словами, как организовать структуру?

George
24.04.2019
05:53:41
Вариантов много. Зависит от того, есть ли общие файлы между разными образами

Dmitry
24.04.2019
05:56:53
Вариантов много. Зависит от того, есть ли общие файлы между разными образами
Сейчас у меня простое веб-приложение на flask. Для его работы нужен сервис uwsgi, выделить для него отдельную директорию или разместить в корне два dockerfile?

Oleh
24.04.2019
07:44:41
Привет. Кто-то пользовался Dusk/Selenium c Laravel/PHP для тестов?

George
24.04.2019
07:45:08
Selenium т.е.?

Oleh
24.04.2019
07:46:43
ага

Кирилл
24.04.2019
08:04:09
Владимир
24.04.2019
09:32:28
Ребята, есть вообще смысл в контейнере избегать root-прав и сделать, для nginx например, пользователя www-data и из-под него всё запускать?

Andor
24.04.2019
09:32:34
нет

Google
George
24.04.2019
09:38:24
и да, и нет

если поедешь - в опеншифт - однозначно, да. если форсишь безопасность - однозначно, да

в остальных случаях - можно не париться

Sergey
24.04.2019
09:39:03
если тебе насрать - пиши как хочешь

если на прод - однозначно, да

Владимир
24.04.2019
09:39:35
Так законы и пишутся в Госдуме)

Страница 1194 из 1375