@devops_ru

Страница 3519 из 4568
Sergey
21.12.2017
07:19:42
я пару месяцев назад немножко поимел мозг на эту тему - могу подсказать свои грабли, и кстати я графану тоже вроде не заставил что то подробное писать в лог

можно тут, можно в личке

хотя это чуть ближе к церкви метрик :)

Andrew
21.12.2017
07:23:11
Grafana + LDAP
у меня успешно работает. Что не получается? Там главное правильные bind_dn/search_filter/search_base_dns указать

Google
Sergey
21.12.2017
07:25:01
там еще есть маленькая тонкость со вложенными группами, но она даже в самом конфиге описана

Andrew
21.12.2017
07:29:02
точно ## If you are using nested groups you probably want to set this and member_of in ## [servers.attributes] to "distinguishedName" # group_search_filter_user_attribute = "distinguishedName"

Sergey
21.12.2017
07:31:39
и расскоментить group_search_filter = "(member:1.2.840.113556.1.4.1941:=%s)"

и учесть что не все поля пользователя норм отрабатывают

я вот username = "sAMAccountName" в итоге выбрал

@tnt4brain памагло?

Sergey
21.12.2017
07:46:13
@tnt4brain памагло?
Графана нихренашеньки не писала в логи вообще об обращении к ЛДАПу, хотя по коду логирование как бы есть, но по факту его вовсе нет

поменял фильтр

завелось

Sergey
21.12.2017
07:47:22
ты же кидал кусмяк лога - там было обращение к лдап

нинашла она говорила

Sergey
21.12.2017
07:48:21
нинашла она говорила
там про лдап так-то ни слова в том куске

просто -401 типа ничего не знаю

Google
Sergey
21.12.2017
07:51:05
там стандартная либа используется - она вот такая воть, ну и так то со стороны лдап более полезно смотреть что от него хотят... в моем случае доступа небыло и я эту боль познал пока перебирал фильтры

Andrew
21.12.2017
08:06:41
может не очень девопс, если так - ткните куда пойти еще можно спросить... Вот такую траблу выловил на mariadb с кучей баз: InnoDB: Error: page 5 log sequence number 11035896831086 InnoDB: is in the future! Current system log sequence number 11033056855325. При этом все базы целые, дампятся, чекаются, сервер рестартится корректно...

подскажите други, куда еще посмотреть (

aborche
21.12.2017
08:07:18
с датой всё хорошо ?

Andrew
21.12.2017
08:07:38
да, синхронизирована...

aborche
21.12.2017
08:08:20
на скольки базах?

прод ? или dev ?

Andrew
21.12.2017
08:08:35
все что в инетах пишут - у вас побитая база, делайте дроп-рестор. Баз больше 1тыс, прод.

aborche
21.12.2017
08:08:37
os какая?

Andrew
21.12.2017
08:08:53
Cloudlinux 7 на основе Cent7

# mysql -V mysql Ver 15.1 Distrib 10.1.22-MariaDB, for Linux (x86_64) using readline 5.1

aborche
21.12.2017
08:09:06
базы в кластере ?

Andrew
21.12.2017
08:09:18
не, просто standalone мария

даже без репликации

aborche
21.12.2017
08:10:15
если без реплики, то только тормозить.

Машу лучше обновить до 10.1.29

Andrew
21.12.2017
08:11:39
тормозить = как лучше?

менять LSN?

aborche
21.12.2017
08:14:07
смотреть кто в базу ходит - тормозить сервис - дампать базу - попробовать развернуть на другом сервере - если развернётся - дропать на основном и проливать из бекапа

как вариант попробовать repair

Google
Andrew
21.12.2017
08:14:53
иэхх, понял, спасибо :(

aborche
21.12.2017
08:14:59
если база на xfs - то ....

места на диске много ?

хост на виртуалке ?

или физика

Andrew
21.12.2017
08:15:41
не, физика. ext4

99G 66G 28G 71% /var

aborche
21.12.2017
08:19:52
как вариант можно поднять slave реплику - но без останова сервера это гемор. общий объём баз какой ? транзакций много?

Andrew
21.12.2017
08:20:36
43ГБ транзакций прилично да

тыкать в каждую бд из processlist чет не хочется, блин

aborche
21.12.2017
08:44:15
скриптануть ?

на других базах есть?

aborche
21.12.2017
08:44:38
ошибка

Andrew
21.12.2017
08:45:12
на каких других? Я вообще не могу определить на какую базу он ругается. В том-то и дело, что получается на угад надо искать

aborche
21.12.2017
08:50:43
вариантов не много. всё что выше

Andrew
21.12.2017
08:51:41
да я понял, спасибо в любом случае.

Дмитрий
21.12.2017
09:07:27
Может кто ссылку дать на статью гже нормально описанно с примерами, как делать в jenkins pipeline с паралельными scm? чтобы реально при изменении в гите свой кусочек запускал

alekum
21.12.2017
09:08:52
я не уверен, что у нас был параллельный пайп, но мы взяли примеры из самого женкинса и немного поправили под свои нужны.

Aleksey
21.12.2017
09:52:15
Сканворды разгадываешь?
по сути есть что сказать?

Maxim
21.12.2017
10:13:01
Народ, а кто как доставляет на бой java приложения? Пакетируете или как-то ещё?

Google
sbog
21.12.2017
10:16:02
по сути есть что сказать?
Выдыхай, парень. Чо ты агришься?

Aleksey
21.12.2017
10:25:12
Выдыхай, парень. Чо ты агришься?
Так я не агрюсь, я спросил, интересно же

Roman
21.12.2017
11:40:41
всем привет, такой вопрос: почему nginx не видит файлы, хотя они есть? на запросы ассетов отдает 404 конфиг nginx: upstream app { server app:9000; } server { listen 80 default_server; root /home/updock/taxi_backend/public; location ~ ^/assets/ { gzip_static on; expires max; add_header Cache-Control public; } try_files $uri $uri/ $uri/index.html @puma; location @puma { proxy_pass http://app; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Host $http_host; proxy_redirect off; } location = /favicon.ico { expires max; add_header Cache-Control public; } error_page 500 502 503 504 /500.html; client_max_body_size 4G; keepalive_timeout 10; }docker-compose.yml: nginx: image: nginx:stable-alpine ports: - 80:80 - 443:443 volumes: - ./public:/usr/share/nginx/html - ./nginx.conf:/etc/nginx/conf.d/01_app.conf:ro environment: - PORT=9000 - LIMITS_PER_IP=150 depends_on: - app

nikoinlove
21.12.2017
11:46:23
taxi_backend гг надеюсь ты не из яндекс.такси

ДружокСапожок
21.12.2017
11:46:47
ты просто так сформулировал охуенно что тебя бы послать подальше да и забыть

Admin
ERROR: S client not available

ДружокСапожок
21.12.2017
11:48:59
ещё и в хомяке хранит, фубля
я тоже храню иногда, ачо такого то

Valery
21.12.2017
11:49:04
Фу

nikoinlove
21.12.2017
11:49:18
не в хомяке у рута, и ладно:)

Roman
21.12.2017
11:49:50
сорян, я просто совсем нуб :(

Aleksey
21.12.2017
11:50:04
я тоже храню иногда, ачо такого то
в общем-то ничего плохого, просто ассоциация сразу с разрабом пилящим что-то для себя на каком-нибудь жидиталоушене, в чате дивапсов это видеть странно

ДружокСапожок
21.12.2017
11:52:55
в общем-то ничего плохого, просто ассоциация сразу с разрабом пилящим что-то для себя на каком-нибудь жидиталоушене, в чате дивапсов это видеть странно
а куда запехорить бакенд? в опт? я вот конфиги в хоме юзера бакенд храню, их надо в етс сунуть? геморно чот, искать потом..

Aleksey
21.12.2017
11:55:22
а куда запехорить бакенд? в опт? я вот конфиги в хоме юзера бакенд храню, их надо в етс сунуть? геморно чот, искать потом..
/opt/app например. Крупные приложухи можно в /app запихнуть и отдельной точкой монтирования. Там и nginx свой, и томкат какой-нить сразу. Раньше ещё в /srv пихали. Основная мысль — всё в одном месте

Roman
21.12.2017
11:55:25
Aleksey
21.12.2017
11:56:41
а разве это просто не связывает файловую систему машины и контейнера?
Ты перепутал, ты указал root /home/updock/taxi_backend/public и смонтировал эту директорию в /usr/share/nginx/html контейнера. Естественно у тебя 404. Это называется "нехуй брать чужие конфиги без ревью".

ДружокСапожок
21.12.2017
11:56:51
а разве это просто не связывает файловую систему машины и контейнера?
он монтирует директорию ./public с хостовой тачки в директорию /usr/share/nginx/html при этом ФС совершенно разные

контейнера*

Google
ДружокСапожок
21.12.2017
11:57:15
нутыпонел

Roman
21.12.2017
11:58:40
а как тогда правильно смонтировать?

Aleksey
21.12.2017
11:59:02
Roman
21.12.2017
11:59:07
root он берет из контейнера?

Aleksey
21.12.2017
12:00:06
У тебя каша в голове, разберись сначала как это работает. Он берёт файлы с ФС, соответственно на это же место надо монтировать

ДружокСапожок
21.12.2017
12:01:06
если ты хочешь чтобы директория /home/updock/taxi_backend/public у тебя внутри контейнера была-бы там-же то монтируй -/home/updock/taxi_backend/public:/home/updock/taxi_backend/public соответственно

проще говоря

Roman
21.12.2017
12:01:15
я понял, то есть либо мне монтировать в /home/updock/taxi_backend/public в контейнере nginx, либо root указывать как /usr/share/nginx/html

ДружокСапожок
21.12.2017
12:01:28
да

Roman
21.12.2017
12:01:50
фух, спасибо большое :)

MIKS
21.12.2017
12:03:45
каким способом захэшировано? SHA-256 чтоле? aab017b4e8a9bdc32bf0ad80b90ba236340625df927c0833fed5f3cf7d5a8ee1

Artem
21.12.2017
12:06:51
похоже

Evgeniy
21.12.2017
12:08:47
Подскажите, как работает filebeat? https://github.com/primait/docker-filebeat - брал контейнер отсюда. Но выдает ошибку что ни одного модуля не найдено. Но вроде как и не мудрено, потому что по Dockerfile видно, что берется один бинарник. А как прикручиваются модули для того, чтобы в logstash, например пихать логи?

Artem
21.12.2017
12:10:17
файлбит отправлялка)

nikoinlove
21.12.2017
12:13:18
довольно странно взять собранный неизвестно кем докерфайл с гитхаба и просить его поддержки у незнакомых людей)

https://github.com/primait/docker-filebeat/blob/master/5.6/Dockerfile судя по всему он качает тар.гз, а не один бинарник :)

так что все модули должны бы быть при нем

Страница 3519 из 4568