@MongoDBRussian

Страница 97 из 342
Alex
07.06.2017
11:44:36
ну может я чет не понимаю конечно

Max
07.06.2017
11:45:17
для чистоты эксперимента можно будет сравнить, когда в directory per db перееду, но... это позже.

может индексы не учитываются, но половина размера - индексы - тож странно

Alex
07.06.2017
11:48:48
а local точно размер оплога показывает ?

Google
Max
07.06.2017
11:49:03
оплог хранится в local

Alex
07.06.2017
11:49:03
я просто не совсем слесарь )

ок

Max
07.06.2017
11:49:22
да вот и я тоже :) пытаюсь углубиться

Alex
07.06.2017
11:49:48
я думаю скорее это цифра реальная которая храниться

во всяком случае у меня показывает 32 Гб

тоже по идее должен быть 50Гб

Max
07.06.2017
11:50:34
WT использует сжатие, может быть оно как-то влияет. и show dbs кажет реальное место на диске, в то время как данных внутри - 50 гиг. ничего умнее пока придумать не могу. Может быть @dd_bb поделится своими мыслями?

Alex
07.06.2017
11:50:43
на диске занято таки 55Гб

5Гб размер базы

Max
07.06.2017
11:50:48
тоже по идее должен быть 50Гб
база в репликасете?

Alex
07.06.2017
11:50:55
да

Max
07.06.2017
11:51:05
rs.printReplicationInfo() сделай плиз и покажи размер оплога

Google
Alex
07.06.2017
11:51:37
в личку

yopp
07.06.2017
11:51:45
Чо

Max
07.06.2017
11:52:05
Чо
сорри за пинг

yopp
07.06.2017
11:52:09
в личку
Нажми на rs.oplog.stats()

Max
07.06.2017
11:52:32
вопрос в том, почему show dbs показывает базу local в 25 гиг, в то время как размер оплога - 50 гиг?

yopp
07.06.2017
11:53:05
Какую проблему вы пытаетесь решить вообще? WT по дефолту snappy использует. Хз насчёт оплога, но наверное тоже, почему нет. В stats всё напишут.

Max
07.06.2017
11:53:47
не совсем проблему решаю пытаюсь просветиться с помощью коллективного разума :)

yopp
07.06.2017
11:55:01
В show dbs; по-моему storage size показывается, а это сколько реально места в дисковом хранилище выделено (именно что выделено, а не используется, там же CoW, страницы могут быть использованы повторно)

Max
07.06.2017
11:55:32
про CoW - шикарная идея, спасибо я все-таки про сжатие думал.

надо почитать, на что capped на коллекцию работает реальные данные или дисковые данные. ушел читать. спасибо всем откликнувшимся!

yopp
07.06.2017
11:56:50
Открой ты stats и там всё напишут.

Там есть и storage size и data size и три мешка метрик WT, включая free pages

Capped ограничивает data size, afair

Так что если настроено 50 гб, а реально занято 25 это значит что оно в два раза сжалось. Не факт что оно будет так всегда, этож оплог. Нальют слабо сжимаемых данных — отрастёт.

Max
07.06.2017
11:59:52
Спасибо! а про "открой stats" - это, простите за лоу вопрос, вкуда смотреть?

yopp
07.06.2017
12:00:17
db.getCollection(name).stats()

Max
07.06.2017
12:00:48
Спасибо! направления ясно, ушёл ковырять

yopp
07.06.2017
12:00:52
Или просто db.<name>.stats()

Но в оплоге точка, не выйдет так.

Sergey
08.06.2017
04:19:47
Мне нужна онлайн копия бд.(на случай отказа ssd) Можно это сделать через репликацию?

Google
Sergey
08.06.2017
04:20:42
Пишу в primary оно пишется еще и в secondary правильно?

Через replica set

Делаю все по инструкции. Главный (первый) сервер стал primary Присоединил второй пустой. Теперь первый стал secondary а второй startup. Что делать?

Dmitry
08.06.2017
06:23:52
Приоритеты ?

yopp
08.06.2017
08:00:06
Т.е. ноды не могут решить кто главный.

Nick
08.06.2017
08:18:55
там гдето был пунктик про нечетное число нод в репликасете

Sergey
08.06.2017
09:01:47
разобрался заработало но как только включаю authorization: enabled то реплики не могут авторизоваться

нужно делать Internal Authentication ? через keyFile: ?

yopp
08.06.2017
09:03:16
Внимательно прочитай весь раздел по аутентификации в документации. Там очень подробно написано.

Peter
08.06.2017
11:36:36
Ребята, есть массив root, это массив объектов, мне нужно найти позицию объекта в массиве у которого _id="12345"

GNU/Docker
08.06.2017
11:41:50
Ок

Nick
08.06.2017
15:48:00
@dd_bb подскажи по такой ситуации: создаю шард коллекцию, создаю индексы, заливаю в коллекцию доки около 500 тыщ, по collname.stats() размер индексов условно 50Мб. Т.к. коллекция тестовая делаю ребилд индексов и получаю условно 20Мб. Собственно вопрос, а можнга сама умеет как-то сжимать индексы если все становится плохо? Ну например я залью не 500к а 500 мультов. Хочется понять какой размер индексов меня ожидает и сколько оперативы нужно

Собственно считай сам ответил про делает она сама чтонить или нет: Normally, MongoDB compacts indexes during routine updates. Вопрос только про эффект от автоматического сжатия будет сопоставим с ребилдом в плане используемого еста?

Nick
08.06.2017
19:59:50
собственно так и думал делать, но вот это изменение в размере после реиндексации немного сбило с толку

yopp
08.06.2017
20:00:10
лучше считать по верхней границе

Nick
08.06.2017
20:00:14
просто считать по плохому сценарию где было 50М или уже после компакта

yopp
08.06.2017
20:00:19
по плохому, да

Google
yopp
08.06.2017
20:00:26
better be safe than sorry

Nick
08.06.2017
20:00:32
ну да здравый смысл он такой)

еще я там где вычитал что монга могет редкоиспользуемые части индекса убирать из памяти и работать с тем что осталось. это в реальности работает?

yopp
08.06.2017
20:02:02
я рекомендую не воспринимать рекомендации монги слишком буквально

там есть ряд рекомендаций которые являются, скажем так, скорее обязательными, а ряд, которые являются решением проблем, которые могут и не возникнуть

короч, не стоит заниматься предварительной оптимизацией

т.е просто через find не получится

Если это нужно для обновления, то есть $: https://docs.mongodb.com/manual/reference/operator/update/positional/

Vyacheslav
09.06.2017
07:44:18
Здравствуйте! Есть такой вопрос Имеется MongoDB 3.0.7, в ней имеется бд размером 10 ГБ, одна коллекция весит 6.5 ГБ (bson) Соответственно, запросы идут медленно к данной базе Можете подсказать, в какую сторону можно оптимизировать Я так понимаю, нужно смотреть в сторону GridFS, но не пойму, как преобразовать обычный bson 6.5 ГБ в gridFS

yopp
09.06.2017
07:56:35
Привет. Нет, не нужно смотреть в gridfs. Это решение для хранение файлов в монге. В любом случае оно в самой монге будет храниться как bson. Нужно изучить запросы (см explain) и создать поддерживающие индексы.

Vyacheslav
09.06.2017
07:59:50
понял, спасибо а можете подсказать по поводу оперативки, диска, сколько его нужно для нормальной работы с коллекциями такого размера сейчас на сервер 5 ГБ оперативы при размере бд 10 ГБ и еще вопрос по поводу engine - стоит ли смотреть в сторону WiredTiger или MMAP тоже норм?

yopp
09.06.2017
08:01:53
Даже нужно смотреть в сторону wiredtiger. Смотреть надо на размер индексов

Памяти должно хватать на индексы + часто используемые данные

Vyacheslav
09.06.2017
08:02:49
ну и по поводу миграции на новые версии, есть ли у кого опыт насколько я понимаю нужно мигрироваться 3.0 -> 3.2 -> 3.4 есть ли какие-то подводные камни?

yopp
09.06.2017
08:06:14
Можно сделать дамп и обновиться сразу до 3.4

Залив его в 3.4 в смысле

Vyacheslav
09.06.2017
08:07:16
ок, понял а есть несовместимости в bson-формате между вервиями?

или впринципе не должны быть

yopp
09.06.2017
08:08:02
Скажем что нет. Bson отдельный стандарт, последнее что там появилось — decimal128

Google
yopp
09.06.2017
08:08:50
Это кажется в районе 3.4 и случилось. Или 3.2

Vyacheslav
09.06.2017
08:09:08
ок, понял, спасибо

Sergey
09.06.2017
14:27:53
А что за колекции по 6гб, что там?

Зависит от того что это за данные, по ним нужно искать? или можно сохранить как большой бинарный кусок

Vyacheslav
09.06.2017
14:30:03
5 млн записей, нужна пагинация с фильтрами

Плюс вывод нрафиков по этим данным

Sergey
09.06.2017
14:31:16
Тогда gridfs тебе не поможет

Посчитай сразу по ним то что нужно и это сохрани

Vyacheslav
09.06.2017
14:33:46
Я так понимаю, нужно смотреть в сторону индексов

И еще такой вопрос - в этой коллекции имеется вложенная коллекция, которая дополняется (массив). Остальные поля обновляются. Как лучше и проще вынести эту коллекцию в отдельную

В голову приходит вариант в скрипте по курсору пройтись и переместить

Вопрос только в том как создать связи между коллекциями

Sergey
09.06.2017
18:53:44
Почему у тебя такие колекции большие получились

Что это за данные?

Страница 97 из 342