@MongoDBRussian

Страница 7 из 342
James
17.05.2016
13:41:08
да

Alex
17.05.2016
13:55:39
> всё уходит в кеш

а это как проявляется?

James
17.05.2016
13:56:47
всмысле?

Google
James
17.05.2016
13:57:41
в хтопе вижу

MEM% при репликации повышается до 100% и как только добегает до 100 падает процесс

на мастере

собсно всё

это так называемая кеширующая память

Alex
17.05.2016
14:00:06
в первый раз слышу. Я знаю кэш VFS. А что такое кэширующая память, можете рассказать или ссылку дать?

James
17.05.2016
14:00:33
скрин приложу сек

Alex
17.05.2016
14:01:12
в man'е htop'a никакой кэширующей памяти нет

PERCENT_MEM The percentage of memory the process is currently using (based on the process's resident memory size, see M_RESIDENT below). M_SIZE (VIRT) Size in memory of the total program size. M_RESIDENT (RES) The resident set size, i.e the size of the text and data sections, plus stack usage. M_SHARE (SHR) The size of the process's shared pages

James
17.05.2016
14:05:19
MEM%

обратите внимание на шкалу

вся физическая память свободна

Alex
17.05.2016
14:12:27
шкала это хорошо, но колонка RES показыает, что монга сожрала 29Гиг резидентной памяти

Google
Alex
17.05.2016
14:12:51
так что это предположительно баг этого htop'a.

James
17.05.2016
14:13:05
хм

free -g тоже баг?

Alex
17.05.2016
14:13:41
вряд ли, в студию

James
17.05.2016
14:14:05
free -g total used free shared buffers cached Mem: 62 62 0 0 0 59 -/+ buffers/cache: 2 60 Swap: 31 0 31

James
17.05.2016
14:18:37
че бля

хрень

пустой ответ

Roman
17.05.2016
14:24:44
пустой ответ
у тебя есть логи как именно падает монга?

Serge
17.05.2016
14:24:51
вся физическая память свободна
ну вот вам ман дали, это оно mmap делает;)

ни влез индекс по ходу

нивлез (c)

Roman
17.05.2016
14:25:33
James
17.05.2016
14:25:43
ну че мне делать то подскажите

Serge
17.05.2016
14:27:16
купить память, уменьшить индекс, шардиться

переехать на wiredtiger

James
17.05.2016
14:28:19
хм

надо подумать

Google
Roman
17.05.2016
14:31:17
Ну и у него и так 64гб. Даже если удвоить - не поможет

James
17.05.2016
14:43:30
уменьшить индекс?

переехать на wire это сложна для продакта

некого пустить на зману

при простое

Roman
17.05.2016
14:48:29
уменьшить индекс?
логи показать как монга падает.

Alex
17.05.2016
15:07:20
Если реплика будет работать, то простоя не будет. Сначала одну реплику переводите на WT, потом вторую

если повезет и ничего не упадет - простоя не будет

Serge
17.05.2016
18:23:51
только для этого коллеге надо таки поднять репликасет

Alex
17.05.2016
20:08:24
Если я правильно понял, у него и так сейчас только одна нода жива. Раз такая пьянка, то можно попробовать сразу уже вторую ноду поднять на WT, т.е SEC реплика будет создаваться уже на новом движке. Если будет продолжать падать мастер... Ну я бы попробовал перезапустить mongod и быстренько, пока она снова не разжирела, запустить реплику, "с нуля". Если продолжит падать - смотреть логи падения, кторых нам так и не показали, гуглить, возомжно, обновить бинари монгодб до самых последних.

Падение из-за памяти это вообще странно. У нас вполне себе работала база, у которой даже одни только индексы сильно не лезли в память. И ничего, даже более-менее работала. Правда, то была весия 2. А советы про шардинг стоит всегда сопровождать приятной новостью, что минимальной конфигурацией шарды является 4 сервера, и дальнейшее расширение не менее, чем по 2 сервера. Ага, по мне, так это больно дохрена. =)

"...покупать дворец на косолёх" (с) =)

*колёсах

Alex
17.05.2016
20:54:50
Ну, подпихивание монгос к шарду - это плохо. Каждая шарда должна быть в реплике. Поэтому 2 шарды => 4 сервера минимум.

3 шарды - 6 серверов

Google
Serge
17.05.2016
20:55:50
Но тут речь как бы поднять...:)

Alex
17.05.2016
20:56:17
Поднять надо реплику, а я про шарды говорил, откуда 4

Хотя 64гб у товарища - это мало, конечно. Монга любит память...

Serge
17.05.2016
20:58:10
Ну смотри, есть два сервера, на них не поднимается реплика. Сначала шардим на них с одиночными репликасетами. Потом берем еще один сервер и добавляем в одну из реплик. Смотрим как поднимается

Alex
17.05.2016
20:58:43
Аааа, вот ты про что...

Roman
17.05.2016
20:58:47
Хотя 64гб у товарища - это мало, конечно. Монга любит память...
Это нормально. На wt лимитирует кеш и будет все збс

Serge
17.05.2016
20:59:14
Хотя 64гб у товарища - это мало, конечно. Монга любит память...
Прекрасно жила на 8 гигах с 500 гиговой базой. Индексы грелись только с конца и всё было ок.

Alex
17.05.2016
20:59:44
Смотря сколько индексы весят и как с данными работают

Alex
17.05.2016
21:00:01
просто в один прекрасный день стратегия поменяется или индексы распухнут и карета станет тыквой

Serge
17.05.2016
21:00:38
Alex
17.05.2016
21:00:48
мне еще не даёт покоя странные цифры у него во free

почему не видно, что монга сожрала 49гиг (RES, не мэп и не кэш вфс!)

Если нормально делать, это всё можно предсказать и принят меры
при чем тут нормально. Ну нормально надо стараться. Но предсказать - это к Ванге

Daniel
17.05.2016
21:05:03
о, чатик…

Roman
17.05.2016
21:06:11
@onokonem а что за болезненный опыт у вас с монгой?

А то в devops это пролетало, но в том потоке хлама потерялось :(

Serge
17.05.2016
21:16:51
@onokonem а что за болезненный опыт у вас с монгой?
Ну, там же транзакций нет. Значит не база...

Alex
17.05.2016
21:25:43
смотря в каком виде транзакции нужны. совсем не все субд реализуют полный и честный acid , чего их теперь, все выкинуть чтоли

Google
Daniel
17.05.2016
21:32:01
@onokonem а что за болезненный опыт у вас с монгой?
именно у меня его нет. только тот, чт вокруг происходил

Alex
17.05.2016
21:45:48
Теперь это чат про что?

James
25.05.2016
11:06:19
Коллеги всем привет. Подскажите совет. Хочу сделать так. задампить базы в монге потом их удалить из работающей и сделать репликацию

и потом добавлять по чутку

Коллеги подскажите то за косяк

mongodump -d test -o /mongo-backup/ mongorestore -d test /mongo-backup/test 2016-05-25T15:46:59.387+0300 building a list of collections to restore from /mongo-backup/test dir 2016-05-25T15:46:59.387+0300 reading metadata for test.fs.chunks from /mongo-backup/test/fs.chunks.metadata.json 2016-05-25T15:46:59.619+0300 restoring test.fs.chunks from /mongo-backup/test/fs.chunks.bson 2016-05-25T15:46:59.620+0300 reading metadata for test.fs.files from /mongo-backup/test/fs.files.metadata.json 2016-05-25T15:46:59.621+0300 restoring test.fs.files from /mongo-backup/test/fs.files.bson 2016-05-25T15:47:02.388+0300 [........................] test.fs.chunks 15.9 MB/923.2 MB (1.7%) 2016-05-25T15:47:02.388+0300 [#######.................] test.fs.files 1.4 MB/4.6 MB (30.4%) 2016-05-25T15:47:02.388+0300 2016-05-25T15:47:05.388+0300 [........................] test.fs.chunks 15.9 MB/923.2 MB (1.7%) 2016-05-25T15:47:05.388+0300 [#######.................] test.fs.files 1.4 MB/4.6 MB (30.4%) 2016-05-25T15:47:05.388+0300 2016-05-25T15:47:08.388+0300 [........................] test.fs.chunks 15.9 MB/923.2 MB (1.7%) 2016-05-25T15:47:08.388+0300 [#######.................] test.fs.files 1.4 MB/4.6 MB (30.4%)

не восстанавливается дамп

зависает и всё

Sergey
25.05.2016
14:43:54
hi all =)

James
25.05.2016
14:44:01
hi

Sergey
25.05.2016
14:44:14
зависает и всё
--batchSize=1/50/100 может помочь, что-то такое у меня было

James
25.05.2016
14:44:27
уже разобрался

проблема в монге

750гб терь мучаюсь

переносом на новый движок

Sergey
25.05.2016
14:45:02
проще через репликацию)

Страница 7 из 342