Iurii
16.03.2019
12:03:12
где приличное сжираение)))?
?
16.03.2019
12:03:36
ну сам демон жрет 62% а контейнеры по 10-20
Iurii
16.03.2019
12:04:12
?
16.03.2019
12:05:06
Google
Iurii
16.03.2019
12:05:17
А мы знаем что такое CPU в топе?
ммм?
может ман по топу прочитать?
?
16.03.2019
12:07:16
Iurii
16.03.2019
12:07:40
да
так что значит 60%? загрузка чего?
?
16.03.2019
12:07:54
Iurii
16.03.2019
12:08:20
?
16.03.2019
12:08:23
2
Iurii
16.03.2019
12:08:35
2
подели и получишь нагрузку
?
16.03.2019
12:08:45
но выше 100 оно улетает тоже
Iurii
16.03.2019
12:08:57
так работает топ
%CPU -- CPU Usage : The percentage of your CPU that is being used by the process. By default, top displays this as a percentage of a single CPU. On multi-core systems, you can have percentages that are greater than 100%. For example, if 3 cores are at 60% use, top will show a CPU use of 180%. See here for more information. You can toggle this behavior by hitting Shifti while top is running to show the overall percentage of available CPUs in use.
?
16.03.2019
12:09:17
да я вкурсе
Google
?
16.03.2019
12:09:18
сказал же
Iurii
16.03.2019
12:09:50
ну тогда к чему вопрос про 60 процентов ну нагжуен чуть если LA не улетает в потолок то и норм
?
16.03.2019
12:10:05
просто показалось что демон сжирает больше чем должен
все ладно
Iurii
16.03.2019
12:10:37
[Anonymous]
16.03.2019
23:14:34
AstraSerg
17.03.2019
07:10:30
Subdust
19.03.2019
09:59:03
Чето не могу разобраться...
Вот например image wordpress ( https://hub.docker.com/_/wordpress/ ).
Как понять по какому dockerfile он собирается?
Мельком глянул сорцы ( https://github.com/docker-library/wordpress ), но все равно не могу понять по какому пути/алгоритму он собирается.
Например, image wordpress:latest по каким Dockerfile будет собираться из этого гитхаб репозитория?
В корне там 3 файла:
Dockerfile-alpine.template
Dockerfile-cli.template
Dockerfile-debian.template
Iurii
19.03.2019
10:04:47
Subdust
19.03.2019
10:05:37
Navern
19.03.2019
10:05:51
собирается из докерфайлов в папках
Iurii
19.03.2019
10:06:05
Navern
19.03.2019
10:06:09
(нужно смотреть .travis-ci)
для каждой из версий свой докерфайл
Iurii
19.03.2019
10:07:02
wordpress:<version>-alpine —> алпайн ттемплейт
wordpress:<version> —> дебиан
Subdust
19.03.2019
10:41:13
Iurii
19.03.2019
10:52:42
Subdust
19.03.2019
10:59:25
В риди написано ?
Ну не. Я ожидал, что будет указано по какому dockerfile image собирается. Это совсем неочевидно
Google
Aleksei
19.03.2019
11:09:22
Subdust
19.03.2019
11:14:54
Rustam
19.03.2019
12:06:36
в простейшем виде как-то так
ENTRYPOINT /bin/sh -c "echo \"$(ip route|awk '/default/ { print $3 }') docker-host\" >> /etc/hosts && nginx -g 'daemon off;'"
Смотрите. На каждой ноде запущен, например, логстеш обычным контейнером, не сервисом. Все эти контейнеры соединены с оверлейной сеткой. На каждой свармовой ноде находится какой-то нагруженный сервис, который должен писать строго в свой логстеш, чтобы знать, откуда идут логи. Проблема в том, что часть сервисов умеет писать только в stdout, а части нужно указать адрес сислога.
тут напрашиваются поды и, соответственно, k8s )
Igor
19.03.2019
12:13:02
А k8s можно закастомить по самое нехочу? Типа включить 2 балансировщика, прописать одному из них, как перенаправлять запросы с одного контейнера на другой (не сервиса, а контейнера). При этом 90% сервисов - Stateful и Ceph не вариант из-за скорости.
Rustam
19.03.2019
12:14:23
можно, но будет непросто ))
Igor
19.03.2019
12:14:34
примерно так же, как со свармом
Rustam
19.03.2019
12:16:50
гибкости больше на порядки, но порог вхождения очень высок, как и накладные расходы на поддержку инфраструктуры. Имхо сворм подходит для небольших и не очень сложных проектов, а k8s - для больших и сложных
просто свормовский подход к решению вашей задачи - для каждого логстеша сделать отдельный сервис, обеспечить запуск логстешей с компонентами приложения посредством ограничений (constraints). Что, конечно, не красиво и не слишком удобно
есть вот такой костыль https://github.com/rycus86/podlike, но до прода он не дорос
Max
19.03.2019
12:19:45
Rustam
19.03.2019
12:24:19
global нам обеспечит запуск таск на всех нодах, подходящих под ограничение. Но остаётся вопрос как нам объяснить приложению в кластере - например nginx - куда писать свои логи. Сам ищу красивое(масштабируемое, удобное) решение, но не находится (
Igor
19.03.2019
12:47:38
не. научить это делать можно. Не так сложно. Запускать логстеш не сервисом, а именно контейнером на каждой тачке нужно хотя бы для того, чтобы слушался локалхост, а не весь мир.
Rustam
19.03.2019
12:53:21
ну вот в моём понимании это некрасивое решение, поскольку логстеши придётся деплоить отдельно
так-то можно их конечно анзиблом раскатать и подставить костыль для получения хоста в контейнере
Igor
19.03.2019
12:54:30
да чем угодно их можно раскатать, но проще в том же сварме
в смысле - иметь сервис, который подымает контейнеры
А как приложению сказать, куда писать свои логи - не всегда проблема. Контейнеры в оверлейной сети находятся под балансировкой, не зависимо от того, сервисы это или нет. Если нескольким джинксам надо писать свои логи, пусть пишут в любой (то, что есть балансировка и она не оптимальна - это плата за устойчивость: если есть хотя бы один логстеш, то логи приходить будут). Либо можно писать логи в stdout, а демону докера сказать их перенаправлять в localhost:<LOGSTASH_PORT>
IN NRM
19.03.2019
14:24:13
Привет! я ваще ни в зуб ногой. установил докер на линукс. надо сделать два экрана. запускаю screen говорит команда не найдена... я понимаю что ворпос наверное пустяковый, но блин как мне сделать 2 - 3 экрана чтобы разные проги запустить в них одновременно?
Google
Никита
19.03.2019
14:47:40
Добрый вечер. Вот есть у меня teamcity, который строит новый image для каждого нового коммита в git и пулит в локальный регистр. Понятное дело, что если каждый раз строить новый image, то все место быстро забьется. Есть ли у Docker какая-либо возможность сохранять 1 image, а далее только новые изменения или до каждого будет свой полновесный image?
Max
19.03.2019
14:49:20
стараться максимально переиспользовать одинаковые слои
IN NRM
19.03.2019
14:49:54
пилять ))) я только что научился контейнеры в докере запускать ))) сцука в 65 лет то
Никита
19.03.2019
14:50:14
Я пока что слабо разбираюсь в терминологии. Слои - это результат каждой команды в Dockerfile?
Max
19.03.2019
14:57:48
да тип того. одинаковые слои не дублируются в registry
Navern
19.03.2019
14:58:36
Никита
19.03.2019
15:02:47
да тип того. одинаковые слои не дублируются в registry
Хорошо. Не знаю как выразиться... А что на счет копирования каталогов в image? Он также будет это делать или просто возьмет результат предыдущего построения? Получается, что, если максимально делать слои изолированными и сохранять память, то копирования и построение проекта следует делать самыми последними шагами?
Navern
19.03.2019
15:03:18