
Eugene
09.10.2018
09:32:29

Sergey
09.10.2018
09:32:40
или прорблема в том что докер логи на флюент коряво идут
какая инфа по мониторингу?
память\кэш\своп\iowait

Google

Tazik
09.10.2018
09:33:50

Banschikov
09.10.2018
09:39:35
проблема только в тормозах?
Я использую flentd-bit для для сбора логов. Они все агригирую в головном fluentd и с помощью плагина для elasticsearch они пересылаются в эластик.
На ноде расположен flentd и elasticsearch
2 cpu
8GB ОЗУ
iowait показатели оптимальные

Sergey
09.10.2018
09:43:14
там фильтры типа grok

Banschikov
09.10.2018
09:43:52

Sergey
09.10.2018
09:44:29
просто любой elasticsearch стек это цепочка
если с флюента идут ок, значит или на биты плохо идет
или биты отдают плохо
если дополнительных фильтров нет, то какого размера логи собираем?
ну обьем данных там не знаю в период времени
ну и htop глянь сколько биты жрут по цпу

Denis
09.10.2018
09:48:49
Hello again!
Насколько плохая идея держать два сервера в разных ДЦ (пинг 2мс), при этом на одном PG Master, на другом PG Slave, на каждом стоит HAProxy который балансирует нагрузку, которая приходит через DNS RR?
Короче, проблема в том, что слейв-сервер запросы на запись все равно отправляет на мастер и иногда это ооочень долго, т.к. видимо проблемы с сетью.
Вопрос - это хостер такой или между ДЦ в теории не может быть нормальной сети, чтобы держать два сервера Master-Slave, которые так же обрабатывают запросы?


Alexey
09.10.2018
09:51:42
Hello again!
Насколько плохая идея держать два сервера в разных ДЦ (пинг 2мс), при этом на одном PG Master, на другом PG Slave, на каждом стоит HAProxy который балансирует нагрузку, которая приходит через DNS RR?
Короче, проблема в том, что слейв-сервер запросы на запись все равно отправляет на мастер и иногда это ооочень долго, т.к. видимо проблемы с сетью.
Вопрос - это хостер такой или между ДЦ в теории не может быть нормальной сети, чтобы держать два сервера Master-Slave, которые так же обрабатывают запросы?
Если гонять запросы по сети между ДЦ которой управляешь не ты, где ты не можешь поставить qos, приоритет, гарантированную полосу или как-то иначе обеспечить себе минимальные задержки - так будет всегда. Обычно если нужна гарантированная задержка берут какой-то из видов выделенных l2/l3 каналов, где провайдер подписывается под sla и известно что он его выполняет. Либо там оптику строят/арендуют) Иначе ты не знаешь что происходит в транзите, на него нельзя расчитывать, только мириться с ним. Можно эпмирически перебирать хостеров, но со всеми рано или поздно будут проблемы

Google

Banschikov
09.10.2018
09:56:57
ну обьем данных там не знаю в период времени
Примерно 4.000 событий в секунду идет сейчас.
Биты нормально работают, они в k8s. Тут явно установил что fluntd с задержкой пересылает логи. После его ребута все приходит в норму на время


Denis
09.10.2018
09:57:04
Если гонять запросы по сети между ДЦ которой управляешь не ты, где ты не можешь поставить qos, приоритет, гарантированную полосу или как-то иначе обеспечить себе минимальные задержки - так будет всегда. Обычно если нужна гарантированная задержка берут какой-то из видов выделенных l2/l3 каналов, где провайдер подписывается под sla и известно что он его выполняет. Либо там оптику строят/арендуют) Иначе ты не знаешь что происходит в транзите, на него нельзя расчитывать, только мириться с ним. Можно эпмирически перебирать хостеров, но со всеми рано или поздно будут проблемы
Спасибо, просто когда я сидел в одном хостере, он просто упал на 4 часа и мы просто ждали, т.к. бекапы в облако всего 3 раза в день, не хотелось терять данные. В итогде пришли к варианту с двумя разными ДЦ и наткнулись на такие грабли.
Значит третий вариант будет держать live в одном ДЦ, во второй ДЦ деражать холодную реплику и в случае падения первого ДЦ быстро ручками перевести трафик на второй ДЦ.


Sergey
09.10.2018
09:57:47

Alexey
09.10.2018
09:58:29

Denis
09.10.2018
09:59:31

Alexey
09.10.2018
09:59:49

Banschikov
09.10.2018
10:02:40

Denis
09.10.2018
10:06:02
Как вариант держать в DNS записи обоих ДЦ, запросы принимать на HAProxy, если с первым ДЦ все ок то пересылать все туда (но тут получаем проблемы при проксировании запроса из резервного ДЦ в основной при плохой сети, хотя они должны быть менее заметны, чем пересылка запросов к базе).


Aion
09.10.2018
10:58:56
Господа доброго времени суток, есть у кого чатик по nginx?

Tazik
09.10.2018
10:59:19
https://t.me/nginx_ru

Aion
09.10.2018
10:59:33

Alexander
09.10.2018
11:07:44
Это FirstVDS был
Это жи просто реселлер который русскую бухгалтерию смог. Разве у них свои дц есть?

Banschikov
09.10.2018
11:13:43

Sergey
09.10.2018
11:14:44

Banschikov
09.10.2018
11:14:54

Sergey
09.10.2018
11:15:00
О.о
да ты псих))
ты прикинь он 4к пытался каждую секунду давить

Google

Sergey
09.10.2018
11:15:56
он еще старое отдать не успел ты его новым нагрузил
"на еще 4к, а это потоооом отправишь"

Roman
09.10.2018
11:29:41
кто-то сталкивался с проблемой, что не контейнер Dockerr нельзя ни потушить, ни удалить? только после перезагрузки

Sergey
09.10.2018
11:30:30

Roman
09.10.2018
11:30:52
postgres локально
ubuntu

Sergey
09.10.2018
11:31:46
он у тебя в композе может restart: always держит?

Чеширский
09.10.2018
11:31:47
Место есть?

Roman
09.10.2018
11:32:45

Sergey
09.10.2018
11:32:56
да
ну так в этом и причина
ты его убиваешь он не убивается

Roman
09.10.2018
11:36:58
а почему тогда rabbitMQ для которого тоже restart: always убивается ?

Konstantin
09.10.2018
11:43:40
Как ты убиваешь?

Banschikov
09.10.2018
11:43:58
да ты псих))
Да затупил) Делал по мануалам флуента и поэтому выставил)

Roman
09.10.2018
11:45:24
docker rm -f $(docker ps -aq)

Konstantin
09.10.2018
11:47:38
А так да, resrart: always делает своё дело

Roman
09.10.2018
11:50:27
без перезагрузки машины

Konstantin
09.10.2018
11:51:08
Restart: unless-stopped
Как-то так, смотри доку

Google

Konstantin
09.10.2018
11:51:34

Sergey
09.10.2018
11:55:43
уже два человека сделали какую то фигню от которой сами пострадали:)

Эдуард
09.10.2018
12:05:46

Volodimir Fedorov
09.10.2018
12:06:50
короче апи не катит.. я выпилил метод апдейта ишью и они всеравно работают) получается запросы с вебморды не дергают апи

Эдуард
09.10.2018
12:18:22
Ты гитлаб не перезагрузил
Сядь wireshark-ом глянь

Volodimir Fedorov
09.10.2018
12:19:47
перезапускал
gitlab-ctl restart

Gor
09.10.2018
12:23:38
Интересно, сколько тут народу github юзают а не gitlab

Konstantin
09.10.2018
12:24:02

Gor
09.10.2018
12:24:22

Konstantin
09.10.2018
12:25:01
Юзают для чего? приватные репы или публичные?

Gor
09.10.2018
12:26:16
Интересно в целом конечно. Но и контекст тут у нас devops

Konstantin
09.10.2018
12:27:38
хз какой контекст у VCS

Igor
09.10.2018
13:14:54
день добрый. я немного в смятении. на сайте пачечка вхостов, которые должны отдаваться только по хттпс. все вхосты имеют вид *.example.com, т.е. сидят на одном домене
я сделал вхост с записью типа:
server {
listen 80;
server_name *.example.com;
return 301 https://$host$request_uri;
}
и сохранил под 00-catchall.conf, хост включен
игнорирует и не редиректит

Sergey
09.10.2018
13:16:27
в логах че

Igor
09.10.2018
13:18:11
а в прочем неважно, просто дефолт надо выключать

Google

Igor
09.10.2018
13:18:35
но вообще я чот был уверен, что нжинх парсит конфиги в алфавитном порядке
и что 00 должен был сработать раньше, чем default

Vitalii
09.10.2018
13:55:52

Igor
09.10.2018
13:56:36
TIL что в линуксе нихера не последовательно

Roman
09.10.2018
13:58:00
http://www.opennet.ru/opennews/art.shtml?num=49414

Marian
09.10.2018
14:06:46

Andrey
09.10.2018
14:07:41
Всем привет, поднял кубернетис кластер через кубспрей на 3 мастера(2 железки и одна ВМ). Последняя падает в состояние notReady. Кто подскажет с чего начать дебажить?

Чеширский
09.10.2018
14:08:29
Всем привет.

Sergey
09.10.2018
14:08:40
дескрайбни ноду там написано все

Чеширский
09.10.2018
14:09:44
Парни кто нибудь юзает docker swarm? Появилась задача на нескольких нодах закрепить только определенные сервисы. Подскажите, может кто знает, как это делается.