@devops_ru

Страница 4480 из 4568
Eugene
09.10.2018
09:32:29
ну если ты с сетями и оборудованием на ты - то сразу gns. пакет трейсер для обучения азам обычно
ну вообще, я автоматизатор, но на новом месте надо с сетями работать, вот сижу, вникаю, страдаю

Sergey
09.10.2018
09:32:40
или прорблема в том что докер логи на флюент коряво идут

какая инфа по мониторингу? память\кэш\своп\iowait

Google
Tazik
09.10.2018
09:33:50
ну вообще, я автоматизатор, но на новом месте надо с сетями работать, вот сижу, вникаю, страдаю
чтобы не мучаться в какую сторону копать, сходи в нетворк к сетевым инженерам https://t.me/ntwrk

Banschikov
09.10.2018
09:39:35
проблема только в тормозах?
Я использую flentd-bit для для сбора логов. Они все агригирую в головном fluentd и с помощью плагина для elasticsearch они пересылаются в эластик. На ноде расположен flentd и elasticsearch 2 cpu 8GB ОЗУ iowait показатели оптимальные

или прорблема в том что докер логи на флюент коряво идут
Причем на fluentd они приходят нормально, это видно в логах, но вот дальше происходит проблема. После рестарта td-agent вроде все приходит в норму, но ненадолго

Banschikov
09.10.2018
09:43:52
грепы регулярками есть?
Нет, этот плагин я не ставил. Могу скинут свой конфиг td-agent.conf. Там все просто

Sergey
09.10.2018
09:44:29
просто любой elasticsearch стек это цепочка

если с флюента идут ок, значит или на биты плохо идет или биты отдают плохо

если дополнительных фильтров нет, то какого размера логи собираем?

ну обьем данных там не знаю в период времени

ну и htop глянь сколько биты жрут по цпу

Denis
09.10.2018
09:48:49
Hello again! Насколько плохая идея держать два сервера в разных ДЦ (пинг 2мс), при этом на одном PG Master, на другом PG Slave, на каждом стоит HAProxy который балансирует нагрузку, которая приходит через DNS RR? Короче, проблема в том, что слейв-сервер запросы на запись все равно отправляет на мастер и иногда это ооочень долго, т.к. видимо проблемы с сетью. Вопрос - это хостер такой или между ДЦ в теории не может быть нормальной сети, чтобы держать два сервера Master-Slave, которые так же обрабатывают запросы?

Alexey
09.10.2018
09:51:42
Hello again! Насколько плохая идея держать два сервера в разных ДЦ (пинг 2мс), при этом на одном PG Master, на другом PG Slave, на каждом стоит HAProxy который балансирует нагрузку, которая приходит через DNS RR? Короче, проблема в том, что слейв-сервер запросы на запись все равно отправляет на мастер и иногда это ооочень долго, т.к. видимо проблемы с сетью. Вопрос - это хостер такой или между ДЦ в теории не может быть нормальной сети, чтобы держать два сервера Master-Slave, которые так же обрабатывают запросы?
Если гонять запросы по сети между ДЦ которой управляешь не ты, где ты не можешь поставить qos, приоритет, гарантированную полосу или как-то иначе обеспечить себе минимальные задержки - так будет всегда. Обычно если нужна гарантированная задержка берут какой-то из видов выделенных l2/l3 каналов, где провайдер подписывается под sla и известно что он его выполняет. Либо там оптику строят/арендуют) Иначе ты не знаешь что происходит в транзите, на него нельзя расчитывать, только мириться с ним. Можно эпмирически перебирать хостеров, но со всеми рано или поздно будут проблемы

Google
Banschikov
09.10.2018
09:56:57
ну обьем данных там не знаю в период времени
Примерно 4.000 событий в секунду идет сейчас. Биты нормально работают, они в k8s. Тут явно установил что fluntd с задержкой пересылает логи. После его ребута все приходит в норму на время

Denis
09.10.2018
09:57:04
Если гонять запросы по сети между ДЦ которой управляешь не ты, где ты не можешь поставить qos, приоритет, гарантированную полосу или как-то иначе обеспечить себе минимальные задержки - так будет всегда. Обычно если нужна гарантированная задержка берут какой-то из видов выделенных l2/l3 каналов, где провайдер подписывается под sla и известно что он его выполняет. Либо там оптику строят/арендуют) Иначе ты не знаешь что происходит в транзите, на него нельзя расчитывать, только мириться с ним. Можно эпмирически перебирать хостеров, но со всеми рано или поздно будут проблемы
Спасибо, просто когда я сидел в одном хостере, он просто упал на 4 часа и мы просто ждали, т.к. бекапы в облако всего 3 раза в день, не хотелось терять данные. В итогде пришли к варианту с двумя разными ДЦ и наткнулись на такие грабли. Значит третий вариант будет держать live в одном ДЦ, во второй ДЦ деражать холодную реплику и в случае падения первого ДЦ быстро ручками перевести трафик на второй ДЦ.

Banschikov
09.10.2018
10:02:40
а логи че говорят за промежутки с долгой отправкой
Извиняюсь за глупый вопрос, но где посмотреть эту информацию? в файле td-agent.log ничего нет

Denis
09.10.2018
10:06:02
Насчет варианта - он нормальный, если у вас короткий ttl в днс, и вы точно знаете как вы будете поднимать обратно дц который упал с точки зрения кластера/мастера, pg же будет себя считать в обоих дц мастером. И полезет это доказывать соседней реплике
Если падает основной ДЦ, выпиливаем его из DNS, идем на холодную реплику, делаем ее мастером и стартуем приложение. Можно попрбовать заюзать Health Check в Route53 чтобы автоматом переключать DNS в резервный ДЦ. В общем вариантов много, и все они лучше того, чтобы разворачивать приложение с нуля когда пришел ппц и восстанавливаться из бекапа 8-часовой давности ?

Как вариант держать в DNS записи обоих ДЦ, запросы принимать на HAProxy, если с первым ДЦ все ок то пересылать все туда (но тут получаем проблемы при проксировании запроса из резервного ДЦ в основной при плохой сети, хотя они должны быть менее заметны, чем пересылка запросов к базе).

Aion
09.10.2018
10:58:56
Господа доброго времени суток, есть у кого чатик по nginx?

Tazik
09.10.2018
10:59:19
https://t.me/nginx_ru

Aion
09.10.2018
10:59:33
https://t.me/nginx_ru
благодарю

Alexander
09.10.2018
11:07:44
Это FirstVDS был
Это жи просто реселлер который русскую бухгалтерию смог. Разве у них свои дц есть?

Banschikov
09.10.2018
11:13:43
а логи че говорят за промежутки с долгой отправкой
flush_interval 5s поставил и вроде все окай

Sergey
09.10.2018
11:14:44
Banschikov
09.10.2018
11:14:54
Sergey
09.10.2018
11:15:00
О.о

да ты псих))

ты прикинь он 4к пытался каждую секунду давить

Google
Sergey
09.10.2018
11:15:56
он еще старое отдать не успел ты его новым нагрузил "на еще 4к, а это потоооом отправишь"

Roman
09.10.2018
11:29:41
кто-то сталкивался с проблемой, что не контейнер Dockerr нельзя ни потушить, ни удалить? только после перезагрузки

Roman
09.10.2018
11:30:52
postgres локально

ubuntu

Sergey
09.10.2018
11:31:46
он у тебя в композе может restart: always держит?

Чеширский
09.10.2018
11:31:47
Место есть?

Sergey
09.10.2018
11:32:56
да
ну так в этом и причина

ты его убиваешь он не убивается

Roman
09.10.2018
11:36:58
а почему тогда rabbitMQ для которого тоже restart: always убивается ?

Konstantin
09.10.2018
11:43:40
Как ты убиваешь?

Banschikov
09.10.2018
11:43:58
да ты псих))
Да затупил) Делал по мануалам флуента и поэтому выставил)

Roman
09.10.2018
11:45:24
Как ты убиваешь?
docker stop $(docker ps -aq) docker rm $(docker ps -aq)

docker rm -f $(docker ps -aq)

Konstantin
09.10.2018
11:47:38
docker stop $(docker ps -aq) docker rm $(docker ps -aq)
Ты если композом запускаешь, то им и останавливай

А так да, resrart: always делает своё дело

Roman
09.10.2018
11:50:27
А так да, resrart: always делает своё дело
а вариантов принудительно потушить нет?

без перезагрузки машины

Konstantin
09.10.2018
11:51:08
Restart: unless-stopped Как-то так, смотри доку

Google
Konstantin
09.10.2018
11:51:34
а вариантов принудительно потушить нет?
Я же говорю, через композ docker-compose stop pg

Sergey
09.10.2018
11:55:43
уже два человека сделали какую то фигню от которой сами пострадали:)

Эдуард
09.10.2018
12:05:46
похоже на то, спасибо. осталось научиться писать на руби)
оно их говна и палок, пройди туториалы https://www.ruby-lang.org/ru/documentation/quickstart https://www.tutorialspoint.com/ruby/ https://www.codecademy.com/learn/learn-ruby

Volodimir Fedorov
09.10.2018
12:06:50
короче апи не катит.. я выпилил метод апдейта ишью и они всеравно работают) получается запросы с вебморды не дергают апи

Volodimir Fedorov
09.10.2018
12:19:47
перезапускал

gitlab-ctl restart

Gor
09.10.2018
12:23:38
Интересно, сколько тут народу github юзают а не gitlab

Gor
09.10.2018
12:24:22
опенсурс?
Не понял вопрос

Konstantin
09.10.2018
12:25:01
Юзают для чего? приватные репы или публичные?

Gor
09.10.2018
12:26:16
Интересно в целом конечно. Но и контекст тут у нас devops

Konstantin
09.10.2018
12:27:38
хз какой контекст у VCS

Igor
09.10.2018
13:14:54
день добрый. я немного в смятении. на сайте пачечка вхостов, которые должны отдаваться только по хттпс. все вхосты имеют вид *.example.com, т.е. сидят на одном домене

я сделал вхост с записью типа: server { listen 80; server_name *.example.com; return 301 https://$host$request_uri; } и сохранил под 00-catchall.conf, хост включен

игнорирует и не редиректит

Sergey
09.10.2018
13:16:27
в логах че

Igor
09.10.2018
13:18:11
а в прочем неважно, просто дефолт надо выключать

Google
Igor
09.10.2018
13:18:35
но вообще я чот был уверен, что нжинх парсит конфиги в алфавитном порядке

и что 00 должен был сработать раньше, чем default

Vitalii
09.10.2018
13:55:52
но вообще я чот был уверен, что нжинх парсит конфиги в алфавитном порядке
потому что у него в default стоит директива listen 80 default_server она и отработала

Igor
09.10.2018
13:56:36
TIL что в линуксе нихера не последовательно

Andrey
09.10.2018
14:07:41
Всем привет, поднял кубернетис кластер через кубспрей на 3 мастера(2 железки и одна ВМ). Последняя падает в состояние notReady. Кто подскажет с чего начать дебажить?

Чеширский
09.10.2018
14:08:29
Всем привет.

Чеширский
09.10.2018
14:09:44
Парни кто нибудь юзает docker swarm? Появилась задача на нескольких нодах закрепить только определенные сервисы. Подскажите, может кто знает, как это делается.

Страница 4480 из 4568