Pavel
кто нить катает прод на убунте?
Sergey
убунте в докере или за докером
Sven
кто нить катает прод на убунте?
После финта с 17.04 ну нах
Pavel
а чо за финт там был?
Pavel
убунте в докере или за докером
хостовая ОС под докера
V 🏴‍☠️
а чо за финт там был?
Некоторые просто не знают сроки поддержки версий, я считаю
Leonid
камрады, подскажите. Есть jar, который используется в нескольких разных образах tomcat. Номальная ли практика билдить этот jar в спец. билд-контейнере и пушить в нексус? А потом подтягивать из нексуса на этапе билда томкат контейнеров. Или в докер-мире что-то более удобное существует?
Sergey
хостовая ОС под докера
только локально если, но точно не для проды
V 🏴‍☠️
Ну и неLTS в проде - такое себе
Pavel
блин, господа, порекомендуйте хостовую ОС под докера для прода
Sergey
дебиан?)
Pavel
пока я юбунту 18 не накатил)
Vladimir
болгенос
Pavel
oracle linux, серьезно
имхо слишком узконаправлено
Faust
болгенос
неплохо
да, это я
oracle linux, серьезно
Как там у UEK c Docker?
Leonid
имхо слишком узконаправлено
не, норм, оно давно не только для СУБД
да, это я
centos/rhel
Это с devicemapper-то по дефолту?
Leonid
Anonymous
Pavel
не, норм, оно давно не только для СУБД
да понятно, только опыта с ней ни у кого к сожалению на текущий момент нет, завернём эту ось скорее всего
Anonymous
у них даже в репе нет docker'а...
Pavel
centos/rhel
да вот как то на одном из продов с центосью всё было печальненько
Sergey
у них даже в репе нет docker'а...
из сырцов собирать)
Anonymous
из сырцов собирать)
это называется enterprice?)
Pavel
склоняемся всё-таки больше к дебиану или бубунте
Leonid
Это с devicemapper-то по дефолту?
вот как-раз в оракле линукс версия ядра 4.1.12-.... с бэкпортами
да, это я
это называется enterprice?)
войтицена? Сильно.
Leonid
overlay2 норм
Pavel
"на одном из продов", звучит конечно.
а в чём, соббсно, проблема? когда неск заказчиков и несколько стендов)
Anonymous
а в чём, соббсно, проблема? когда неск заказчиков и несколько стендов)
в чем же была проблема, если конечно не секрет..я не ради стеба если что
да, это я
вот как-раз в оракле линукс версия ядра 4.1.12-.... с бэкпортами
Девайсмаппер депрекейтед, ЕМНИП. А в доебане вообще aufs.
Pavel
в чем же была проблема, если конечно не секрет..я не ради стеба если что
сейчас уже не вспомню, да и отвалился тот стенд в итоге. Нет, докер не при чём) заказчик не захотел систему)
Leonid
Девайсмаппер депрекейтед, ЕМНИП. А в доебане вообще aufs.
я про то же наа современном UEK4 overlay2 стабильный
Pavel
UEK это што?
да, это я
UEK это што?
unbreakable enterprise kernel
Leonid
да
да, это я
Версия ядра от ораклятины.
Anonymous
Девайсмаппер депрекейтед, ЕМНИП. А в доебане вообще aufs.
дак переклю на overlay2, чет мне кажется, что вы досих пор дальше centos 7/7.1 не ушли)
Leonid
у них даже в репе нет docker'а...
http://yum.oracle.com/oracle-linux-7.html http://yum.oracle.com/repo/OracleLinux/OL7/addons/x86_64/index.html (docker 17.06)
Pavel
Версия ядра от ораклятины.
блин, ввиду отсутствия опыта работы с оным пока что даже юбунта-18 для прода кажется более подходящим вариантом)
Pavel
малый. Часто предоставляемые тачки были уже с системой, в основном это были дебианы-8 и убунты-14
Leonid
Sven
Для java помимо котов что то еще было
Bogdan
Mike
Коллеги. Мне больше некуда смотреть, эта тварь достала восстанавливать из пепла убитый контейнер. Даже после сноса всего docker-а, каким то макаром он подсасывает старые изменения образа и применяет их на контейнер. Мистика уже.
Andrey
Оркестратор? Старые изменения образа - это старый image?
Mike
А volumes где-то хранили за пределами папки с докером?
Посмотрел - контейнер не создаёт volumе.
Mike
Оркестратор? Старые изменения образа - это старый image?
Без оркестраторов, чистый docker-ce, устанавливаемый по официальной инструкции. Бекенд хранения overlay2
Andrey
Docker stop и docker rm контейнера. Затем docker pull нужного image и стартануть контейнер. Можно так попробовать
Mike
Делал docker kill контейнера, затем rm. Затем создание нового контейнера с тем же именем - изменения в нем как в уделённом.
Andrey
Потому что image не тот. Можешь ещё почистить в целом от мусора: docker system prune (почитать о чем предупреждает)
Mike
Потому что image не тот. Можешь ещё почистить в целом от мусора: docker system prune (почитать о чем предупреждает)
Меня ещё удивляет разная работа контейнера, в зависимости от того, к какой сети его подключить: к host или к bridge
Sergey
бриджа виртуальная
Anonymous
как поправить файл sudo nano /etc/mysql/my.cnf в docker
Anonymous
?
arts
Подсунуть ему свой при сборке?
Vladimir
или подсунуть свой, или примонтировать можно; для таикх целей обычно отдельный образ создается и туда копируется
Roman
ребят, подскажите с prometheus новичку... не подхватываются метрики с ендпоинта веб-сервиса (не могу нарисовать графики с выбранными метриками, пишет No datapoints found.). запускаю сервисы такой конфигурацией: version: '2' volumes: prometheus_data: {} grafana_data: {} services: prometheus: image: prom/prometheus container_name: prometheus volumes: - ./config/prometheus/:/etc/prometheus/ - prometheus_data:/prometheus command: - '--config.file=/etc/prometheus/prometheus.yml' expose: - 9090 ports: - 9090:9090 grafana: image: grafana/grafana depends_on: - prometheus ports: - 3000:3000 volumes: - grafana_data:/var/lib/grafana environment: - GF_SECURITY_ADMIN_PASSWORD=foobar - GF_USERS_ALLOW_SIGN_UP=false конфиг прометеуса следующий: # my global config global: scrape_interval: 15s # By default, scrape targets every 15 seconds. evaluation_interval: 15s # By default, scrape targets every 15 seconds. # scrape_timeout is set to the global default (10s). # Attach these labels to any time series or alerts when communicating with # external systems (federation, remote storage, Alertmanager). external_labels: monitor: 'my-project' # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: # The job name is added as a label `job=<job_name>` to any timeseries scraped from this config. - job_name: 'prometheus' # Override the global default and scrape targets from this job every 5 seconds. scrape_interval: 5s # metrics_path defaults to '/metrics' # scheme defaults to 'http'. static_configs: - targets: ['localhost:9090'] - job_name: 'webapp' # Override the global default and scrape targets from this job every 5 seconds. scrape_interval: 5s # scheme defaults to 'http'. metrics_path: '/data' static_configs: - targets: ['localhost:5000']
Mike
Какие люди). Привет. Может быть банально в systemd service висит?
:) Не в systemd дело было, видимо сам image кривой.
Sergey
Всем привет. Подскажите, может ли Swarm где-то кешировать данные по своим сервисам? Дело в том, что у меня в сворме крутятся 3 сервиса, один из них прокси. Вот я решил попробовать вторую реплику заюзать на одном из сервисов, все ок было. Потом вернул на 1 реплику. И после этого nginx-proxy где-то раз в 5-10 запросов стал ругаться такими словами: onnect() failed (113: No route to host) while connecting to upstream, client: 10.255.0.3, server: myHost.ru, request: "GET /new-messages HTTP/1.0", upstream: "testhttp://10.0.0.10:9000/new-messages", host: "myHost.ru", referrer: "testhttp://myHost.ru/" Так вот этого IP 10.0.0.10 уже давно нет. Видимо это и была реплика. Все сервисы удалял чере RM и заного создавал с этими же именами (Думал прокся закешировала). Помогло только то, что я этому злощастному сервису поменял имя. Ну и перенастроил проксю на другое имя докер сервиса. Где я еще забыл удалить кеш и как это сделать, если я правильно определил причину?
Artem
настрой на своей проксе dynamic upstream
Artem
чтобы чекались апстрмы, если сервис ушел, я прокся не перечитала конфиг или не рестартанулась, то будет долбится по старому апстриму
Sergey
Спасибо, попробую!
Sergey
чтобы чекались апстрмы, если сервис ушел, я прокся не перечитала конфиг или не рестартанулась, то будет долбится по старому апстриму
Кстати, еще раз перечитал. Дело в том, что я полностью удалял проксю и ставил заново. Всеравно прокся может где-то закешироваться?
Artem
Если ты полностью удалял реплики прокси и заново создавал, то нет