@docker_ru

Страница 1193 из 1375
inqfen
23.04.2019
06:36:34
Это все там есть

А логи должны быть в системе логирования

Elk, гейлог, вот это вот все

Google
Egor
23.04.2019
06:37:45
А логи должны быть в системе логирования
у меня итак все так..просто дублируется на прометей/КХ и в файлики

Banschikov
23.04.2019
06:38:13
Андрей
23.04.2019
07:46:48


гейлог?
Хмм.... и анальный агент от заббикса.

Yaroslav
23.04.2019
09:29:59
Привет! Кто-то squid в докере подымал ?

Bocharnikov
23.04.2019
09:36:37
Пока думою

А что там?

Oleg
23.04.2019
09:43:07
Кто нибудь занимается запуском автотестов по средствам docker-compose и контейнеров с selenium и nightwatch?

George
23.04.2019
09:48:40
я поднял

https://github.com/sameersbn/docker-squid

Stas
23.04.2019
10:04:20
Всем привет. Камрады, кто с докер свормом работал. Скажите, почему в кластере из 3 мастеров при падении в кернел паник *не лидера* падает весь кластер? Если просто перезагружаю любого не лидера, то все порты и сети остаются доступными.

кернел паник нода ловит на malloc

George
23.04.2019
10:05:34
оом?

Google
Stas
23.04.2019
10:06:26
out of memory

да, при этом на ноде в момент падения еще 2 гига оперативы свободно

цпу отлично себя чувствует

George
23.04.2019
10:07:43
нет

так не бывает

значит все таки оом

Stas
23.04.2019
10:07:49
но вопрос в другом. почему кластер падает весь

кхм....

George
23.04.2019
10:07:56
потому что оом?

Stas
23.04.2019
10:07:59
ок. пруф в студию

George
23.04.2019
10:08:07
какой-то баг в коде, который вызывает аллокацию памяти

у тебя оом в dmesg есть?

Stas
23.04.2019
10:08:29
да

George
23.04.2019
10:08:31
либо да, либо нет

значит он лупит всех подряд

ядро какое? версия?

Stas
23.04.2019
10:08:56
но он же не лидер

ведро 4

George
23.04.2019
10:09:44
смотри. Я столкнулся с проблемой в ядре, которая вызывала ООМ киллер ОЧЕНЬ превентивно

помогло обновление на более последнее ядро. Причем там буквально дело в одной минорной версии, и я умудрился попасть именно на нее

Google
Stas
23.04.2019
10:10:07
в 4?

George
23.04.2019
10:10:11
да

в 4-ке

4.4.хх, по-моему

Stas
23.04.2019
10:10:38
хм. а сохранился линк на багтрекере?

George
23.04.2019
10:11:45
нет. но вообще там еще много кейсов типа фрагментации памяти

https://serverfault.com/questions/917938/linux-oom-killer-acting-despite-plenty-available-memory

я думаю, что это ядро багованное https://bugs.launchpad.net/bugs/1666260

Stas
23.04.2019
10:13:56
а может быть замешано то, что эта центось на авс?

George
23.04.2019
10:14:45
хз

авс сам по себе не гарантирует 100% доступности ВМок

Stas
23.04.2019
10:15:58
ясно. спасибо за наводки

тут в карму как плюсик ставить?

George
23.04.2019
10:16:35
никак

Stas
23.04.2019
10:17:50
ок. тем не менее спасибо. буду ведро обновлять, смотреть что выйдет

Stefan
23.04.2019
10:38:15
а при мультитегировании образа, по факту докер хранит один имейдж?

Stefan
23.04.2019
10:39:00
чудно, спасибо за ответ

Mikhail
23.04.2019
11:10:34
Хлопцы, ошибка Error: Redis connection to 127.0.0.1:6379 failed - connect ECONNREFUSED 127.0.0.1:6379 Но редис у меня поднят в контейнеры, а сервисы которые depends_on redis стучатся локально, а не к контейнеру (( что не так ?

Google
George
23.04.2019
11:15:14
ну, правильно

вариантов два

1. используешь хост моуд сеть и коннектишься по 127.0.0.1

или

2. коннектишься по имени контейнера, т.к. докер - это про вирт. сеть (бридж)

Melis
23.04.2019
13:25:11
docker run --pid=container:2e8014bd6f07 -p 8888:8080 brendanburns/topz:db0fa58 /server -addr 0.0.0.0:8888 Ребята, Hi ! Не подскажите ли вы, как это конвертировать в docker-compose services? или Как запустить два docker-compose service в одном пространство идентификаторов процессора?

George
23.04.2019
13:28:19
ЩИТО?

насчет сконвертировать - между докер-компоуз и аргументами докер ран взаимнооднозначное соответствие

например

-p 8888:8080 превращается в ports: - 8888:8008

дальше сам

лучше спроси конкретно, что вызывает проблему

Melis
23.04.2019
13:31:15
лучше спроси конкретно, что вызывает проблему
мне нужно запустить второй контейнер как sidecar + в одном пространство идентификатора процессора

в третьей версии работать не будет
хм, а как выкрутится можно с третьей версией

ildar
23.04.2019
13:32:10
никак :D

Melis
23.04.2019
13:32:34
да ладно(

ildar
23.04.2019
13:32:34
она для swarm, а это значит что один сервис может быть запущен на одном хосте, а второй на другом

и между ними не пошарить pid ns

Google
Melis
23.04.2019
13:32:55
понятно, спасибо

Ivan
23.04.2019
13:32:59
можно их в хост пустить)

pid: «host»

можно их в хост пустить)
https://docs.docker.com/compose/compose-file/#pid

но понятно, что это не совсем то

Владимир
23.04.2019
13:53:43
Товарищи, у меня на локали и на проде работает php-контейнер, разворачиваю стейдж точно так же - контейнер запускается, работает секунд 10 и завершает работу. Код идентичен, окружение одинаковое, логов и ошибок не пишет никаких, куда смотреть?

Viktor
23.04.2019
13:55:50
научить fpm писать логи все же

Владимир
23.04.2019
14:01:46
Ну ладно

fso
23.04.2019
14:05:48
У меня чуть другая ситуация - стало много контейнеров в сварме. Ресурсов сервера еще достаточно, но новые не запускаются - висят в статусе new|created. Подскажите куда смотреть, что крутить?

Apr 23 14:25:16 cs48808docker containerd[708]: time="2019-04-23T14:25:16.500352992+03:00" level=info msg="shim reaped" id=10371d5d940d57a7f3e71743f9c16d278544b917e15554a25657ed97d15efc20 Apr 23 14:25:16 cs48808docker dockerd[13393]: time="2019-04-23T14:25:16.510331347+03:00" level=info msg="ignoring event" module=libcontainerd namespace=moby topic=/tasks/delete type="*events.TaskDelete" Apr 23 14:25:16 cs48808docker dockerd[13393]: time="2019-04-23T14:25:16.510823006+03:00" level=warning msg="deleteServiceInfoFromCluster NetworkDB DeleteEntry failed for 8228638d6add5fb39b054d86fc28042dc809c6c8e072ba09e224296f243f20c4 z0ez7adaf2fzws475k058kisz err:cannot delete entry endpoint_table with network id z0ez7adaf2fzws475k058kisz and key 8228638d6add5fb39b054d86fc28042dc809c6c8e072ba09e224296f243f20c4 does not exist or is already being deleted" Apr 23 14:25:16 cs48808docker dockerd[13393]: time="2019-04-23T14:25:16.510867981+03:00" level=warning msg="rmServiceBinding deleteServiceInfoFromCluster postgres-slave 8228638d6add5fb39b054d86fc28042dc809c6c8e072ba09e224296f243f20c4 aborted c.serviceBindings[skey] !ok" в логах только это

George
23.04.2019
14:11:06
сколько сервисов запущено?

ildar
23.04.2019
14:11:27
был тут парень с 1000 контейнеров в сворме https://t.me/docker_ru/118405

George
23.04.2019
14:12:14
350
имхо, много

fso
23.04.2019
14:13:12
сервер 240Гб памяти, 72 активных ядра.. терабайт ссд и 4 хдд...

Страница 1193 из 1375