
Pavel
15.05.2018
13:43:29
юзаем сворм, на нём в ближайшем будущем пока и останемся

Jentry
15.05.2018
13:59:57
Первый случайный прод на swarm:
3.10.0-514.6.1.el7.x86_64
17.09.0-ce
Но рекомендую docker от 17.12, там по сетевым проблемым были фиксы

Pavel
15.05.2018
14:08:49
ядрышко не старенько для докера?

Egor
15.05.2018
14:10:01
3.10.0-327.36.3.el7.x86_64 - у меня вообще такое=)

Google

Egor
15.05.2018
14:10:23
в некотроых

Svyatoslav
15.05.2018
14:10:51

Богдан
15.05.2018
14:11:27
как в php через докер memory_limit повысить?

Sergey
15.05.2018
14:11:56
а как без докера повышаете

Алексей
15.05.2018
14:11:58

Sergey
15.05.2018
14:12:02
так же и делать

Pavel
15.05.2018
14:13:13

Svyatoslav
15.05.2018
14:14:19
повысь в пхп ини
Если фпм используешь то в нем

Pavel
15.05.2018
14:17:00
кто нить катает прод на убунте?

Sergey
15.05.2018
14:17:23
убунте в докере или за докером

Svyatoslav
15.05.2018
14:17:32

Google

Pavel
15.05.2018
14:17:51
а чо за финт там был?

Ванько
15.05.2018
14:18:11

L
15.05.2018
14:18:15
камрады, подскажите. Есть jar, который используется в нескольких разных образах tomcat. Номальная ли практика билдить этот jar в спец. билд-контейнере и пушить в нексус? А потом подтягивать из нексуса на этапе билда томкат контейнеров. Или в докер-мире что-то более удобное существует?

Sergey
15.05.2018
14:18:37

Ванько
15.05.2018
14:18:45
Ну и неLTS в проде - такое себе

Pavel
15.05.2018
14:19:30
блин, господа, порекомендуйте хостовую ОС под докера для прода

Sergey
15.05.2018
14:19:41
дебиан?)

Pavel
15.05.2018
14:19:41
пока я юбунту 18 не накатил)

L
15.05.2018
14:19:59

intruder
15.05.2018
14:20:14
болгенос

Pavel
15.05.2018
14:20:58

Sad but
15.05.2018
14:21:00

Pavel
15.05.2018
14:21:02

Aleksey
15.05.2018
14:21:32

Irek
15.05.2018
14:23:00

L
15.05.2018
14:23:32

Aleksey
15.05.2018
14:23:37

L
15.05.2018
14:23:37

Irek
15.05.2018
14:24:15

Google

Pavel
15.05.2018
14:24:16

Irek
15.05.2018
14:24:23
у них даже в репе нет docker'а...

Aleksey
15.05.2018
14:24:28

Pavel
15.05.2018
14:24:56
centos/rhel
да вот как то на одном из продов с центосью всё было печальненько

Sergey
15.05.2018
14:24:59

Irek
15.05.2018
14:25:15

Aleksey
15.05.2018
14:25:20

Irek
15.05.2018
14:25:24

Pavel
15.05.2018
14:25:28
склоняемся всё-таки больше к дебиану или бубунте

L
15.05.2018
14:25:33

Aleksey
15.05.2018
14:25:39

L
15.05.2018
14:25:45
overlay2 норм

Pavel
15.05.2018
14:25:48

Irek
15.05.2018
14:26:14

Aleksey
15.05.2018
14:26:24

Pavel
15.05.2018
14:27:07

L
15.05.2018
14:27:22

Pavel
15.05.2018
14:27:33
UEK это што?

L
15.05.2018
14:27:37

Aleksey
15.05.2018
14:27:51

Google

L
15.05.2018
14:28:13
да

Admin
ERROR: S client not available

Aleksey
15.05.2018
14:28:15
Версия ядра от ораклятины.

Irek
15.05.2018
14:28:44

L
15.05.2018
14:30:19

Pavel
15.05.2018
14:31:09
Версия ядра от ораклятины.
блин, ввиду отсутствия опыта работы с оным пока что даже юбунта-18 для прода кажется более подходящим вариантом)

L
15.05.2018
14:31:58

Pavel
15.05.2018
14:32:54
малый. Часто предоставляемые тачки были уже с системой, в основном это были дебианы-8 и убунты-14

L
15.05.2018
14:33:58

Svyatoslav
15.05.2018
14:37:41
Для java помимо котов что то еще было

Богдан
15.05.2018
14:42:53

Mike
15.05.2018
15:15:27
Коллеги. Мне больше некуда смотреть, эта тварь достала восстанавливать из пепла убитый контейнер.
Даже после сноса всего docker-а, каким то макаром он подсасывает старые изменения образа и применяет их на контейнер. Мистика уже.

Alex
15.05.2018
15:16:31

Andrey
15.05.2018
15:17:29
Оркестратор? Старые изменения образа - это старый image?

Mike
15.05.2018
15:17:35

Andrey
15.05.2018
15:23:12
Docker stop и docker rm контейнера. Затем docker pull нужного image и стартануть контейнер. Можно так попробовать

Mike
15.05.2018
15:25:18
Делал docker kill контейнера, затем rm. Затем создание нового контейнера с тем же именем - изменения в нем как в уделённом.

Andrey
15.05.2018
15:40:55
Потому что image не тот. Можешь ещё почистить в целом от мусора: docker system prune (почитать о чем предупреждает)

Google

Mike
15.05.2018
15:50:14

Sergey
15.05.2018
15:52:25
бриджа виртуальная

Igor
15.05.2018
19:50:17

Ysim
15.05.2018
20:26:19
как поправить файл sudo nano /etc/mysql/my.cnf в docker
?

Sad but
15.05.2018
20:27:59

arts
15.05.2018
20:32:30
Подсунуть ему свой при сборке?

Vlad
15.05.2018
20:34:41
или подсунуть свой, или примонтировать можно; для таикх целей обычно отдельный образ создается и туда копируется


Roman
15.05.2018
22:14:28
ребят, подскажите с prometheus новичку... не подхватываются метрики с ендпоинта веб-сервиса (не могу нарисовать графики с выбранными метриками, пишет No datapoints found.). запускаю сервисы такой конфигурацией:
version: '2'
volumes:
prometheus_data: {}
grafana_data: {}
services:
prometheus:
image: prom/prometheus
container_name: prometheus
volumes:
- ./config/prometheus/:/etc/prometheus/
- prometheus_data:/prometheus
command:
- '--config.file=/etc/prometheus/prometheus.yml'
expose:
- 9090
ports:
- 9090:9090
grafana:
image: grafana/grafana
depends_on:
- prometheus
ports:
- 3000:3000
volumes:
- grafana_data:/var/lib/grafana
environment:
- GF_SECURITY_ADMIN_PASSWORD=foobar
- GF_USERS_ALLOW_SIGN_UP=false
конфиг прометеуса следующий:
# my global config
global:
scrape_interval: 15s # By default, scrape targets every 15 seconds.
evaluation_interval: 15s # By default, scrape targets every 15 seconds.
# scrape_timeout is set to the global default (10s).
# Attach these labels to any time series or alerts when communicating with
# external systems (federation, remote storage, Alertmanager).
external_labels:
monitor: 'my-project'
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
- job_name: 'prometheus'
# Override the global default and scrape targets from this job every 5 seconds.
scrape_interval: 5s
# metrics_path defaults to '/metrics'
# scheme defaults to 'http'.
static_configs:
- targets: ['localhost:9090']
- job_name: 'webapp'
# Override the global default and scrape targets from this job every 5 seconds.
scrape_interval: 5s
# scheme defaults to 'http'.
metrics_path: '/data'
static_configs:
- targets: ['localhost:5000']


Irek
16.05.2018
04:09:07