
Sergey
21.12.2017
07:19:42
я пару месяцев назад немножко поимел мозг на эту тему - могу подсказать свои грабли, и кстати я графану тоже вроде не заставил что то подробное писать в лог
можно тут, можно в личке
хотя это чуть ближе к церкви метрик :)

Andrew
21.12.2017
07:23:11
Grafana + LDAP
у меня успешно работает.
Что не получается?
Там главное правильные bind_dn/search_filter/search_base_dns указать

Google

Sergey
21.12.2017
07:25:01
там еще есть маленькая тонкость со вложенными группами, но она даже в самом конфиге описана

Andrew
21.12.2017
07:29:02
точно
## If you are using nested groups you probably want to set this and member_of in
## [servers.attributes] to "distinguishedName"
# group_search_filter_user_attribute = "distinguishedName"

Sergey
21.12.2017
07:31:39
и расскоментить group_search_filter = "(member:1.2.840.113556.1.4.1941:=%s)"
и учесть что не все поля пользователя норм отрабатывают
я вот username = "sAMAccountName" в итоге выбрал
@tnt4brain памагло?

Sergey
21.12.2017
07:46:13
@tnt4brain памагло?
Графана нихренашеньки не писала в логи вообще об обращении к ЛДАПу, хотя по коду логирование как бы есть, но по факту его вовсе нет
поменял фильтр
завелось

Sergey
21.12.2017
07:47:22
ты же кидал кусмяк лога - там было обращение к лдап
нинашла она говорила

Sergey
21.12.2017
07:48:21
просто -401 типа ничего не знаю

Google

Sergey
21.12.2017
07:51:05
там стандартная либа используется - она вот такая воть, ну и так то со стороны лдап более полезно смотреть что от него хотят... в моем случае доступа небыло и я эту боль познал пока перебирал фильтры

Andrew
21.12.2017
08:06:41
может не очень девопс, если так - ткните куда пойти еще можно спросить...
Вот такую траблу выловил на mariadb с кучей баз:
InnoDB: Error: page 5 log sequence number 11035896831086
InnoDB: is in the future! Current system log sequence number 11033056855325.
При этом все базы целые, дампятся, чекаются, сервер рестартится корректно...
подскажите други, куда еще посмотреть (

aborche
21.12.2017
08:07:18
с датой всё хорошо ?

Andrew
21.12.2017
08:07:38
да, синхронизирована...

aborche
21.12.2017
08:08:20
на скольки базах?
прод ? или dev ?

Andrew
21.12.2017
08:08:35
все что в инетах пишут - у вас побитая база, делайте дроп-рестор.
Баз больше 1тыс, прод.

aborche
21.12.2017
08:08:37
os какая?

Andrew
21.12.2017
08:08:53
Cloudlinux 7 на основе Cent7
# mysql -V
mysql Ver 15.1 Distrib 10.1.22-MariaDB, for Linux (x86_64) using readline 5.1

aborche
21.12.2017
08:09:06
базы в кластере ?

Andrew
21.12.2017
08:09:18
не, просто standalone мария
даже без репликации

aborche
21.12.2017
08:10:15
если без реплики, то только тормозить.
Машу лучше обновить до 10.1.29

Andrew
21.12.2017
08:11:39
тормозить = как лучше?
менять LSN?

aborche
21.12.2017
08:14:07
смотреть кто в базу ходит - тормозить сервис - дампать базу - попробовать развернуть на другом сервере - если развернётся - дропать на основном и проливать из бекапа
как вариант попробовать repair

Google

Andrew
21.12.2017
08:14:53
иэхх, понял, спасибо :(

aborche
21.12.2017
08:14:59
если база на xfs - то ....
места на диске много ?
хост на виртуалке ?
или физика

Andrew
21.12.2017
08:15:41
не, физика. ext4
99G 66G 28G 71% /var

aborche
21.12.2017
08:19:52
как вариант можно поднять slave реплику - но без останова сервера это гемор. общий объём баз какой ? транзакций много?

Andrew
21.12.2017
08:20:36
43ГБ
транзакций прилично да
тыкать в каждую бд из processlist чет не хочется, блин

aborche
21.12.2017
08:44:15
скриптануть ?
на других базах есть?

aborche
21.12.2017
08:44:38
ошибка

Andrew
21.12.2017
08:45:12
на каких других?
Я вообще не могу определить на какую базу он ругается.
В том-то и дело, что получается на угад надо искать

aborche
21.12.2017
08:50:43
вариантов не много. всё что выше

Andrew
21.12.2017
08:51:41
да я понял, спасибо в любом случае.

Дмитрий
21.12.2017
09:07:27
Может кто ссылку дать на статью гже нормально описанно с примерами, как делать в jenkins pipeline с паралельными scm? чтобы реально при изменении в гите свой кусочек запускал

alekum
21.12.2017
09:08:52
я не уверен, что у нас был параллельный пайп, но мы взяли примеры из самого женкинса и немного поправили под свои нужны.

Aleksey
21.12.2017
09:52:15

Maxim
21.12.2017
10:13:01
Народ, а кто как доставляет на бой java приложения? Пакетируете или как-то ещё?

Google

sbog
21.12.2017
10:16:02

Aleksey
21.12.2017
10:25:12


Roman
21.12.2017
11:40:41
всем привет, такой вопрос: почему nginx не видит файлы, хотя они есть? на запросы ассетов отдает 404
конфиг nginx:
upstream app {
server app:9000;
}
server {
listen 80 default_server;
root /home/updock/taxi_backend/public;
location ~ ^/assets/ {
gzip_static on;
expires max;
add_header Cache-Control public;
}
try_files $uri $uri/ $uri/index.html @puma;
location @puma {
proxy_pass http://app;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header Host $http_host;
proxy_redirect off;
}
location = /favicon.ico {
expires max;
add_header Cache-Control public;
}
error_page 500 502 503 504 /500.html;
client_max_body_size 4G;
keepalive_timeout 10;
}docker-compose.yml:
nginx:
image: nginx:stable-alpine
ports:
- 80:80
- 443:443
volumes:
- ./public:/usr/share/nginx/html
- ./nginx.conf:/etc/nginx/conf.d/01_app.conf:ro
environment:
- PORT=9000
- LIMITS_PER_IP=150
depends_on:
- app

ДружокСапожок
21.12.2017
11:46:18


nikoinlove
21.12.2017
11:46:23
taxi_backend гг
надеюсь ты не из яндекс.такси

ДружокСапожок
21.12.2017
11:46:47
ты просто так сформулировал охуенно что тебя бы послать подальше да и забыть

Admin
ERROR: S client not available

Aleksey
21.12.2017
11:47:20


ДружокСапожок
21.12.2017
11:48:59

Valery
21.12.2017
11:49:04
Фу

nikoinlove
21.12.2017
11:49:18
не в хомяке у рута, и ладно:)

Roman
21.12.2017
11:49:50
сорян, я просто совсем нуб :(

Aleksey
21.12.2017
11:50:04
я тоже храню иногда, ачо такого то
в общем-то ничего плохого, просто ассоциация сразу с разрабом пилящим что-то для себя на каком-нибудь жидиталоушене, в чате дивапсов это видеть странно

ДружокСапожок
21.12.2017
11:52:55

Aleksey
21.12.2017
11:55:22

Roman
21.12.2017
11:55:25

Aleksey
21.12.2017
11:56:41

ДружокСапожок
21.12.2017
11:56:51
контейнера*

Google

ДружокСапожок
21.12.2017
11:57:15
нутыпонел

Roman
21.12.2017
11:58:40
а как тогда правильно смонтировать?

Aleksey
21.12.2017
11:59:02

Roman
21.12.2017
11:59:07
root он берет из контейнера?

Aleksey
21.12.2017
12:00:06
У тебя каша в голове, разберись сначала как это работает. Он берёт файлы с ФС, соответственно на это же место надо монтировать

ДружокСапожок
21.12.2017
12:01:06
если ты хочешь чтобы директория /home/updock/taxi_backend/public у тебя внутри контейнера была-бы там-же то монтируй -/home/updock/taxi_backend/public:/home/updock/taxi_backend/public соответственно
проще говоря

Roman
21.12.2017
12:01:15
я понял, то есть либо мне монтировать в /home/updock/taxi_backend/public в контейнере nginx, либо root указывать как /usr/share/nginx/html

ДружокСапожок
21.12.2017
12:01:28
да

Aleksey
21.12.2017
12:01:40

Roman
21.12.2017
12:01:50
фух, спасибо большое :)

MIKS
21.12.2017
12:03:45
каким способом захэшировано? SHA-256 чтоле?
aab017b4e8a9bdc32bf0ad80b90ba236340625df927c0833fed5f3cf7d5a8ee1

Artem
21.12.2017
12:06:51
похоже

Evgeniy
21.12.2017
12:08:47
Подскажите, как работает filebeat?
https://github.com/primait/docker-filebeat - брал контейнер отсюда.
Но выдает ошибку что ни одного модуля не найдено. Но вроде как и не мудрено, потому что по Dockerfile видно, что берется один бинарник.
А как прикручиваются модули для того, чтобы в logstash, например пихать логи?

Artem
21.12.2017
12:10:17
файлбит отправлялка)

nikoinlove
21.12.2017
12:13:18
довольно странно взять собранный неизвестно кем докерфайл с гитхаба и просить его поддержки у незнакомых людей)
https://github.com/primait/docker-filebeat/blob/master/5.6/Dockerfile
судя по всему он качает тар.гз, а не один бинарник :)
так что все модули должны бы быть при нем