
Alexey
20.12.2017
13:46:33
Исть ли какие-то удобные инструменты для централизованной настройки бэкапов БД? Желательно универасальные, но главное Postgres

Ilia
20.12.2017
14:27:18

Alexey
20.12.2017
14:28:02
Я под универсальными имел ввиду что разные СУБД
Чтобы я мог сказать "Вот тебе 2 постгреса и одна монга, делай бэкапы каждую ночь "

Google

Alexey
20.12.2017
14:28:52
Но можно и по отдельности
Иначе какие подходы используют? Не самописные же скрипты в кроне

Anton
20.12.2017
14:29:34

Ilia
20.12.2017
14:29:47

Sergey
20.12.2017
14:29:59
Все базы спать на ночь и пофайлово - вперед

Ilia
20.12.2017
14:30:15
Или тебе веб-морда с хипстерской кнопочкой нужна?

Anton
20.12.2017
14:31:04
И подписью "сделать круто"

Alexey
20.12.2017
14:31:35
А чем плохо?
Неудобства управления и модификации. Плюс не увидеть глобальную ситуацию.

Ilia
20.12.2017
14:32:19

Alexey
20.12.2017
14:33:12
top ?
Мы же о разных хостах говорим

Al
20.12.2017
14:38:43
Еще и на разных хостах...

Google

Al
20.12.2017
14:39:35
Давайте проковыряем большие дырки в хостах. Зато бэкап будет красивый с кнопочкой

Ilia
20.12.2017
14:43:50
ssh top

Al
20.12.2017
14:49:48
ssh top
Ну не. Нужно все порты открыть. С любых ип (вдруг с мобилки там бэкап запустить или с планшетика посмотреть как отработало).
Должно быть весело же

Ilia
20.12.2017
14:58:16
Да, зачем жить скучно?
Надо жить весело!

Sergey
20.12.2017
15:04:45
Кому надо для винды - агент умеет VSS

Al
20.12.2017
15:14:41

Alexey
20.12.2017
15:18:07
Я нисколько не настаиваю что моя идея хорошая, моя цель понять какие есть практики.
В плане безопасности думал через ssh tunnel или ограничения по ip
А и в моем случае речь про закрытую сеть


KOT
20.12.2017
18:15:11
Есть 3 таблицы на 3ГБ в общей сложности данных. Есть машины с 16ГБ памяти и недостаточно быстрым для сложности запросов диском. И есть дикое желание переместить все данные с диска в оперативу. Какие есть способы это сделать?
Это не прод, это домашний комп, где мне с данными надо поработать, сделать графики на основе анализа и забить, так что все негативные стороны для прода отпадают.
Mysql / Percona 5.7
Я думал сделать таблицу с движком MEMORY и портануть туда данные. Но более 8К записей не могу туда запихнуть, возвращает ошибку "table is full"
Увеличивал параметры через файл конфига, не помогает, гугл других вариантов решения проблемы не подсказывает (

Alexey
20.12.2017
18:29:38

KOT
20.12.2017
18:30:36
Ради одного расчёта анализа данных
У меня сейчас там на 100 строках оно 50-70 секунд колбасит, а там нужно 400К перелопатить.

Alexey
20.12.2017
18:31:50
ну так вот этот весь колхоз с копированием в memory по сумме всех накладных расходов только медленнее получится

Google

KOT
20.12.2017
18:32:36
Таблица А 18М строк
Таблица Б 400К строк
Нужно: перебирая все строки из таблицы Б, по связному полю смотреть в таблицу А и искать все записи ДО метки времени и отдельно ПОСЛЕ метки времени.

Alexey
20.12.2017
18:34:32
а, ну да. и А в память не влезает, а хочется чтобы Б была всегда в памяти?

KOT
20.12.2017
18:34:57
Оба влезут
Памяти 16ГБ
Таблицы весят все суммарно 3ГБ
Память при всех мои издевательствах ни разу больше 5ГБ не использовалась
Я пытался для начала хотя бы Б в MEMORY таблицу перекинуть, не хочет больше 7748 записей туда писать и всё тут, увеличиваю tmp_table_size=8G и max_heap_table_size=8G всё равно "Table is full" заладил, как "ПОПКА ДУРАК!" и фиг поймёшь куда ему и чего ему

Alexey
20.12.2017
18:38:31
это скорее всего max_rows при создании таблицы. но быстрее-то не станет. я даже не знаю, с чего начать объяснение. вроде и так всё должно быть очевидно?

KOT
20.12.2017
18:39:05
То есть ты хочешь сказать, что боттнек не в диске?

Anton
20.12.2017
18:39:23
@alexey_kopytov ну станет же, если запрос построен так, ЧТо тамм по 5 раз одни и те же данные сканит))))

KOT
20.12.2017
18:39:27
Диск у меня старичок, ХДД на 10К оборотов рапторовский.

Anton
20.12.2017
18:41:03
так если через индекс, то не перебирает

Alexey
20.12.2017
18:41:10
вот эти 3ГБ нужно во-первых с диска прочитать, а во-вторых чего-то там с ними сделать. можно просто начинать делать, кэшируя прочитанные страницы в памяти. А можно считать _все_ данные, возможно построив при этом индексы с нуля, а потом что-то с ними делать. в чём профит-то?

KOT
20.12.2017
18:41:42

Anton
20.12.2017
18:42:01
ну тады тебе с лихвой должно хватить буффер-пула
НА размеры индексов

Alexey
20.12.2017
18:42:11
ну вот, там ещё и индексы есть
которые при копировании в memory нужно ещё перестроить

KOT
20.12.2017
18:42:25
Я буфферпул ставил 12ГБ, он его не юзает (

Google

KOT
20.12.2017
18:42:56
В плане в админке написано, что испоьлзование 86-95%, но оперативы не более 5ГБ занято
И то далеко на базой

Anton
20.12.2017
18:43:34

KOT
20.12.2017
18:44:14

Admin
ERROR: S client not available

Alexey
20.12.2017
18:44:40
не знаю, что там за админка и что она пишет. но смотреть нужно на show status like 'Innodb_buffer%';

KOT
20.12.2017
18:51:28

Alexey
20.12.2017
18:51:54
я на картинке вижу дефолтный innodb_buffer_pool_size (128M), который весь занят

Al
20.12.2017
18:52:09
Предлагаю начать думать о праздниках. Я вот салун нашел на диком западе

Alexey
20.12.2017
18:52:36
вот, у @AlexCAD картинки интереснее
а та была скучная

KOT
20.12.2017
18:53:26

Alexey
20.12.2017
18:54:20
case closed

KOT
20.12.2017
18:56:05

Al
20.12.2017
18:57:09
Погоди
Ты дай минут 20 что бы он в память с диска зашрузил. Это не быстро

Anton
20.12.2017
18:57:39
так он ничего не грузит при простое. Прогреть надо))))

KOT
20.12.2017
18:58:41
А при полном скане он не прогревается?

Al
20.12.2017
18:59:45
Нет

Google

Al
20.12.2017
19:00:34
За прогрев

Anton
20.12.2017
19:00:45
сманиваешь...

KOT
20.12.2017
19:01:26
Отчего происходит игнорирование настроек?
Куда копать?

Anton
20.12.2017
19:01:58
А рестарт делал?

KOT
20.12.2017
19:02:04
Делал
Системы или mysql?
Service mysql restart

Anton
20.12.2017
19:02:20
mysql

KOT
20.12.2017
19:03:50
Бля, мозги уже набекрень, я апач рестартил, совсем ебанулся в край

Anton
20.12.2017
19:04:06
?