@dba_ru

Страница 351 из 718
Alexey
20.12.2017
13:46:33
Исть ли какие-то удобные инструменты для централизованной настройки бэкапов БД? Желательно универасальные, но главное Postgres

Alexey
20.12.2017
14:28:02
Я под универсальными имел ввиду что разные СУБД

Чтобы я мог сказать "Вот тебе 2 постгреса и одна монга, делай бэкапы каждую ночь "

Google
Alexey
20.12.2017
14:28:52
Но можно и по отдельности

Иначе какие подходы используют? Не самописные же скрипты в кроне

Sergey
20.12.2017
14:29:59
Все базы спать на ночь и пофайлово - вперед

Ilia
20.12.2017
14:30:15
Или тебе веб-морда с хипстерской кнопочкой нужна?

Anton
20.12.2017
14:31:04
И подписью "сделать круто"

Alexey
20.12.2017
14:31:35
А чем плохо?
Неудобства управления и модификации. Плюс не увидеть глобальную ситуацию.

Alexey
20.12.2017
14:33:12
top ?
Мы же о разных хостах говорим

Al
20.12.2017
14:38:43
Еще и на разных хостах...

Google
Al
20.12.2017
14:39:35
Давайте проковыряем большие дырки в хостах. Зато бэкап будет красивый с кнопочкой

Ilia
20.12.2017
14:43:50
ssh top

Al
20.12.2017
14:49:48
ssh top
Ну не. Нужно все порты открыть. С любых ип (вдруг с мобилки там бэкап запустить или с планшетика посмотреть как отработало).

Должно быть весело же

Ilia
20.12.2017
14:58:16
Да, зачем жить скучно? Надо жить весело!

Sergey
20.12.2017
15:04:45
Исть ли какие-то удобные инструменты для централизованной настройки бэкапов БД? Желательно универасальные, но главное Postgres
Bareos + bareos-webui. Интерфейс для посмотреть, как обстановка. Централизованное хранилище и гибкие расписания, а сам бэкап БД скриптами

Кому надо для винды - агент умеет VSS

Al
20.12.2017
15:14:41
Да, зачем жить скучно? Надо жить весело!
Дык и хакеров нужно поддерживать. Эт ж только унылые лохи делают так что к бд можно только с пары ип пробиться.

Alexey
20.12.2017
15:18:07
Я нисколько не настаиваю что моя идея хорошая, моя цель понять какие есть практики. В плане безопасности думал через ssh tunnel или ограничения по ip

А и в моем случае речь про закрытую сеть

KOT
20.12.2017
18:15:11
Есть 3 таблицы на 3ГБ в общей сложности данных. Есть машины с 16ГБ памяти и недостаточно быстрым для сложности запросов диском. И есть дикое желание переместить все данные с диска в оперативу. Какие есть способы это сделать?

Это не прод, это домашний комп, где мне с данными надо поработать, сделать графики на основе анализа и забить, так что все негативные стороны для прода отпадают.

Mysql / Percona 5.7

Я думал сделать таблицу с движком MEMORY и портануть туда данные. Но более 8К записей не могу туда запихнуть, возвращает ошибку "table is full"

Увеличивал параметры через файл конфига, не помогает, гугл других вариантов решения проблемы не подсказывает (

Alexey
20.12.2017
18:29:38
Я думал сделать таблицу с движком MEMORY и портануть туда данные. Но более 8К записей не могу туда запихнуть, возвращает ошибку "table is full"
innodb всё равно будет считывать всё с диска при первом доступе, и использовать кэш в памяти при последующих обращениях. копирование данных в MEMORY таблицу, построение индексов (если есть), блокировки на уровне таблиц в MEMORY — зачем это всё?

KOT
20.12.2017
18:30:36
Ради одного расчёта анализа данных

У меня сейчас там на 100 строках оно 50-70 секунд колбасит, а там нужно 400К перелопатить.

Alexey
20.12.2017
18:31:50
ну так вот этот весь колхоз с копированием в memory по сумме всех накладных расходов только медленнее получится

Google
KOT
20.12.2017
18:32:36
Таблица А 18М строк Таблица Б 400К строк Нужно: перебирая все строки из таблицы Б, по связному полю смотреть в таблицу А и искать все записи ДО метки времени и отдельно ПОСЛЕ метки времени.

Alexey
20.12.2017
18:34:32
а, ну да. и А в память не влезает, а хочется чтобы Б была всегда в памяти?

KOT
20.12.2017
18:34:57
Оба влезут

Памяти 16ГБ

Таблицы весят все суммарно 3ГБ

Память при всех мои издевательствах ни разу больше 5ГБ не использовалась

Я пытался для начала хотя бы Б в MEMORY таблицу перекинуть, не хочет больше 7748 записей туда писать и всё тут, увеличиваю tmp_table_size=8G и max_heap_table_size=8G всё равно "Table is full" заладил, как "ПОПКА ДУРАК!" и фиг поймёшь куда ему и чего ему

Alexey
20.12.2017
18:38:31
это скорее всего max_rows при создании таблицы. но быстрее-то не станет. я даже не знаю, с чего начать объяснение. вроде и так всё должно быть очевидно?

KOT
20.12.2017
18:39:05
То есть ты хочешь сказать, что боттнек не в диске?

Anton
20.12.2017
18:39:23
@alexey_kopytov ну станет же, если запрос построен так, ЧТо тамм по 5 раз одни и те же данные сканит))))

KOT
20.12.2017
18:39:27
Диск у меня старичок, ХДД на 10К оборотов рапторовский.

@alexey_kopytov ну станет же, если запрос построен так, ЧТо тамм по 5 раз одни и те же данные сканит))))
4 раза перебирает 18М записей (но через индекс составной) для каждой из 400К строк

Anton
20.12.2017
18:41:03
так если через индекс, то не перебирает

Alexey
20.12.2017
18:41:10
вот эти 3ГБ нужно во-первых с диска прочитать, а во-вторых чего-то там с ними сделать. можно просто начинать делать, кэшируя прочитанные страницы в памяти. А можно считать _все_ данные, возможно построив при этом индексы с нуля, а потом что-то с ними делать. в чём профит-то?

KOT
20.12.2017
18:41:42
так если через индекс, то не перебирает
там составной индекс, сначала идёт прямой столбец связи, а потом RANGE по второму столбцу индекса

Anton
20.12.2017
18:42:01
ну тады тебе с лихвой должно хватить буффер-пула

НА размеры индексов

Alexey
20.12.2017
18:42:11
ну вот, там ещё и индексы есть

которые при копировании в memory нужно ещё перестроить

KOT
20.12.2017
18:42:25
Я буфферпул ставил 12ГБ, он его не юзает (

Google
KOT
20.12.2017
18:42:56
В плане в админке написано, что испоьлзование 86-95%, но оперативы не более 5ГБ занято

И то далеко на базой

Admin
ERROR: S client not available

Alexey
20.12.2017
18:44:40
не знаю, что там за админка и что она пишет. но смотреть нужно на show status like 'Innodb_buffer%';

Alexey
20.12.2017
18:51:54
я на картинке вижу дефолтный innodb_buffer_pool_size (128M), который весь занят

Al
20.12.2017
18:52:09
Предлагаю начать думать о праздниках. Я вот салун нашел на диком западе



Alexey
20.12.2017
18:52:36
вот, у @AlexCAD картинки интереснее

а та была скучная

Alexey
20.12.2017
18:54:20
Где ты size там рассмотрел?
Innodb_buffer_pool_pages_total (8191) * 16384 (размер страницы) ~ 128 M

case closed

Al
20.12.2017
18:57:09
Погоди
Ты дай минут 20 что бы он в память с диска зашрузил. Это не быстро

Anton
20.12.2017
18:57:39
так он ничего не грузит при простое. Прогреть надо))))

KOT
20.12.2017
18:58:41
А при полном скане он не прогревается?

Al
20.12.2017
18:59:45
Нет

Google
Al
20.12.2017
19:00:34
За прогрев

Anton
20.12.2017
19:00:45
сманиваешь...

KOT
20.12.2017
19:01:26




Отчего происходит игнорирование настроек?

Куда копать?

Anton
20.12.2017
19:01:58
А рестарт делал?

KOT
20.12.2017
19:02:04
Делал

Системы или mysql?

Service mysql restart

Anton
20.12.2017
19:02:20
mysql

KOT
20.12.2017
19:03:50
Бля, мозги уже набекрень, я апач рестартил, совсем ебанулся в край

Anton
20.12.2017
19:04:06
?

Страница 351 из 718