
nikoinlove
31.07.2018
10:21:17
перкона разве что-то делает для постгреса?

Andrey
31.07.2018
10:21:26
Оке, я тогда сюда еще перешлю. А то чота где-то видимо туплю.
Настраиваю pgpoll поверх 2х серверов PG10.
Работают как мастер слейв с обычой streaming репликацией.
Все что требуется от pgpool это инсерты слать только в мастер, а селекты балансить между мастером и репликой + авторизация по персонифицированным учеткам в PG. Это возможно?
Сейчас столкнулся с проблемой: "ERROR: MD5 authentication is unsupported in replication, master-slave and parallel modes.
HINT: check pg_hba.conf"
Гуглится сразу таблица сообщетствия методов авторизации. Но у меня везде стоит md5.
Но и на мастере и на слейве у меня прописано в pg_hba.conf уже даже вот такое правило:
host all all 0.0.0.0/0 md5
И на сервере pgpool тоже в pool_hba.conf прописано:
host all all 0.0.0.0/0 md5

nikoinlove
31.07.2018
10:23:38
http://www.pgpool.net/mediawiki/index.php/FAQ#I_created_pool_hba.conf_and_pool_passwd_to_enable_md5_authentication_through_pgpool-II_but_it_does_not_work._Why.3F

kiltum
31.07.2018
10:23:58

Google

nikoinlove
31.07.2018
10:24:21

kiltum
31.07.2018
10:24:43

nikoinlove
31.07.2018
10:25:18
перкона это скорее мускл, чем что-либо иное

kiltum
31.07.2018
10:26:00

Никита
31.07.2018
10:26:53
Percona - это mysql с небольшим набором улучшений, которые орекал либо не хочет пилить, либо ещё не запилил.

Эдуард
31.07.2018
10:28:14

Aleksandr
31.07.2018
10:29:08
Всем привет!
Помогите разобраться с проблемкой...
Такая ситуация:
на линукс сервере работают три докер контейнера (два работают постоянно, на них elasticsearch )
и третий контейнер самописное приложение (NET Core).
так вот, третий контейнер запущен но работает крайне редко, ну может раз в полчаса к нему запрос придет, но он начинает очень нагружать CPU
Вопрос:
Могу ли я третьему контейнеру выдать какой-то приоритет в CPU ? Чтобы вот все ресурсы ему отдать, пока он работает.

Andrey
31.07.2018
10:30:23

kiltum
31.07.2018
10:33:21
Ну это же постгрес. Для начала смени на другую/убери совсем. Если заработает - значит низзя md5. Если не заработает, значит - где-то еще ошибка ?

Iurii
31.07.2018
10:33:42

Konstantin
31.07.2018
10:36:44
а он разве не будет падать от OOM?

Iurii
31.07.2018
10:37:52

Konstantin
31.07.2018
10:39:57
честно говоря никогда вроде и не приходилось сталкиваться) туже Java делаю heap меньше лимита на 5-10% и не упирался. ну может случаи и были редкие, незаметные.

Google

Полинский
31.07.2018
10:40:29
Такой вопрос, разворачиваются приложение если два контейнера находятся на одной машине то коннект по http://названиесервиса идёт, если же на разных то не может приконектится

Alex
31.07.2018
10:40:46
repmgr говорят лучше, у нас он стоит в проде

Andrey
31.07.2018
10:41:16

Iurii
31.07.2018
10:41:22

Aleksandr
31.07.2018
10:41:54

Konstantin
31.07.2018
10:41:59
тут куда не глянь - везде докер, но это ничего не говорит

Alex
31.07.2018
10:42:41

Konstantin
31.07.2018
10:43:14

Полинский
31.07.2018
10:46:39

Konstantin
31.07.2018
10:47:31
Вариантов много и у каждого своя правда
Кстати, кто подскажет, compose научили мульти-ноды с оверлей сетью или мне приснилось?

Полинский
31.07.2018
10:50:30
через docker stack deploy -c name.yml test

Konstantin
31.07.2018
10:51:07
Покажи конфиг, gist какой-то


Полинский
31.07.2018
10:51:26
в самом yml version: '3'
services:
rabbitmq:
image: library/rabbitmq:3-management
networks:
asujs-network:
aliases:
- rabbitmq
deploy:
restart_policy:
condition: on-failure
delay: 5s
max_attempts: 30
window: 20s
ports:
- 15672:15672
- 5672:5672
links:
- config
config:
environment:
CONFIG_SERVICE_PASSWORD: "test"
image: sqshq/piggymetrics-config:latest
networks:
asujs-network:
aliases:
- config
hostname: config
deploy:
restart_policy:
condition: on-failure
delay: 5s
max_attempts: 30
window: 20s
ports:
- 8888:8888
registry:
environment:
CONFIG_SERVICE_PASSWORD: "test"
image: sqshq/piggymetrics-registry:latest
networks:
asujs-network:
aliases:
- registry
deploy:
restart_policy:
condition: on-failure
delay: 5s
max_attempts: 30
window: 20s
ports:
- 8761:8761
depends_on:
- config
networks:
asujs-network:
driver: overlay
вот сам файл, если они на одной ноде то registry видит коннект к http://config:8888
если же эти два контейнера на двух разных хостах то уже ошибка коннекта


Konstantin
31.07.2018
10:54:08
Поубирай линки и алиасы, только каши себе больше делаешь. Имя сервиса = днс имя

Google

Konstantin
31.07.2018
10:54:37

Полинский
31.07.2018
10:55:13
да 1 мастер и к нему подключаются 4 work
и они конектятся через swarm join к мастеру
и вместо networks:
asujs-network:
aliases:
- rabbitmq
сделать networks:
- asujs-network

Konstantin
31.07.2018
11:01:27
да, у тебя всё равно alias = hostname, оно нужно чтобы сделать алиас с другим именем
порты открывать (Publish) тоже не нужно, если ты между сервисами общаешься

Полинский
31.07.2018
11:16:44
тоже самое все равно падает из-за того что не может присоеденится к config

Konstantin
31.07.2018
11:17:31
ну по сути ты ничего не поменял, убрал ненужный мусор только
конфиг верный, проблема где-то в другом

Полинский
31.07.2018
11:29:11
Ну вот сейчас поднялся сервис один он успел подняться на той же машине где и конфиг и он не падает из-за коннекта к конфигу

Konstantin
31.07.2018
11:30:41
Зайди в контейнер на одной роде и пингани сервис, контейнер которого на другой
Как-то всё просто и базово, оно работает из коробки, но у тебя нет
Firewall?

Полинский
31.07.2018
11:37:33
Там все порты открыты сейчас слетает из-за ошибки внутри этого сервиса
ну и падает так же на коннекте к http config
а может быть из-за того что сервисы называтся так piggymetrics_account-mongodb, а не account-mongodb ?

Konstantin
31.07.2018
12:17:30

Andrey
31.07.2018
12:17:35

Konstantin
31.07.2018
12:18:02
научи мульти-ноду в пределах одного хоста 0_о

Google

Andrey
31.07.2018
12:18:03
а между хостами - это уже в рамках кластера
нода ты имеешь ввиду контейнер?
или что )

Fike
31.07.2018
12:20:29
Что же имеется в виду под нодой ???

Konstantin
31.07.2018
12:20:51
в общем не умеет композ, видать я упоролся и мне приснилось)

Andrey
31.07.2018
12:23:16

Konstantin
31.07.2018
12:23:46
да никогда контейнеры\сервисы не были нодами
ты не знаешь что такое нода?

Andrey
31.07.2018
12:24:08
я знаю "ноду" по терминологии k8s ))

Konstantin
31.07.2018
12:24:42
в кубе это узел, а в докере это контейнер?

Ivan
31.07.2018
12:24:50
господа, а никто из вас не проходил собес недавно?

Andrey
31.07.2018
12:24:55
хз, ты же сказал про ноду )) вот я и не понял

Ivan
31.07.2018
12:25:15
А то у меня прям дежавю

Konstantin
31.07.2018
12:25:32
собеседовал кого-то?)

Iurii
31.07.2018
12:25:58

twwlf
31.07.2018
12:26:14
"pod это контейнер"
wat

Iurii
31.07.2018
12:26:17

Andrey
31.07.2018
12:26:20
двойка )

Google

Konstantin
31.07.2018
12:26:30
и под это не контейнер ни разу

Iurii
31.07.2018
12:27:31

Andrey
31.07.2018
12:27:41
это группы контейнеров с общей общностью и общими шареными разделами файловой системы
в одном поде может быть 100500 контейнеров )

Konstantin
31.07.2018
12:28:06
это вот единственная причина, почему я на куб перелез - нет в докере(читай swarm) подов или чего-то похожего. а иногда нужно

twwlf
31.07.2018
12:28:16

Andrey
31.07.2018
12:28:35
это всего лишь контейнерный механизм

twwlf
31.07.2018
12:28:55
это _интерфейс_ к механизму

Konstantin
31.07.2018
12:28:58
читай в скобках, не надо вырезать из контекста

twwlf
31.07.2018
12:28:58
раз уж на то пошло

Konstantin
31.07.2018
12:29:17
я сравниваю k8s и swarm, а не cgroup

Iurii
31.07.2018
12:29:24

twwlf
31.07.2018
12:30:03

Iurii
31.07.2018
12:30:05
Куб и сворм хм сворм по мне компос с рюшечками не более

twwlf
31.07.2018
12:30:07
pod это pod
btw, "pod" – вполне себе дженерик термин и в контексте кубера сохраняет значение