Max
значит попутал :)
yopp
Но я думаю что мы в самое ближайшее времени отойдём от практики продавать время и перейдём к практике продавать решение проблемы.
Max
по сути - просто спрячете часы от клиента. что, зачастую, очень разумно 👍
yopp
Не, просто спрятать часы не работает. Нужно иначе систему отношений строить.
yopp
Так что если тебе интересно, ты можешь написать @semakovskaya, она тебе всё расскажет. Если уже болит, но пока не бьёт по лицу и почкам, то что-то поправить сейчас, будет сильно дешевле чем править когда уже бьёт :)
yopp
Где-то раза в два-три
Nick
а код правите?)
yopp
а код правите?)
Пока нет, но есть такое на роадмапе
yopp
Запросы конечно правим :)
Max
Так что если тебе интересно, ты можешь написать @semakovskaya, она тебе всё расскажет. Если уже болит, но пока не бьёт по лицу и почкам, то что-то поправить сейчас, будет сильно дешевле чем править когда уже бьёт :)
да та профилактика рулит. я обсужу этот момент со своими. сейчас пока вряд ли будут делаться такие шаги, но, как минимум, себя я этим прикрою, да и запущу идею в массы.
Nick
т.е. пока только рекомендациями относительно данных ограничиваетесь и подкруткой монги под конкретный текущий кейс?
yopp
т.е. пока только рекомендациями относительно данных ограничиваетесь и подкруткой монги под конкретный текущий кейс?
Анализ запросов, схемы, топологии и деплоймента. И рекомендации что с этим делать
yopp
Где-то ближе к середине лета, надеюсь, запустим DBaaS для монги.
yopp
Это вторая боль после самих данных :(
🔰ш
Только 3 часа пытался установить это.
🔰ш
Уже хочу умереть
🔰ш
Дальше только хуже, да?
🔰ш
Хм, с виду всё не очень плохо, похоже на жс.
CC-BY-SA-4.0/Docker-ce30.0
Ууу.
CC-BY-SA-4.0/Docker-ce30.0
Только 3 часа пытался установить это.
Дальше лучше не пытаться.
🔰ш
Все из-за ебаной мышки, которой я не выделил букву o в расширении .repo для файла yum
🔰ш
Я пиздец тупой, блять.
🔰ш
Объект может хранить коллекцию?
🔰ш
Хотя, коллекция это просто массив, так что, по логике - да.
🔰ш
Во, бля.
🔰ш
Моё говно подходит идеально
🔰ш
Дублируете ли вы важные данные (тьфу), или используете ссылки и делаете джоины в коде приложения (дважды тьфу), если вам нужны ссылки между документами, то вы переросли MongoDB. Когда апологеты MongoDB говорят «документы», то они имеют ввиду вещи, которые вы можете напечатать на бумаге и работать таким образом. Документы имеют внутреннюю структуру — заголовки и подзаголовки, параграфы и футеры, но не имеют ссылок на другие документы. Самодостаточный элемент слабоструктурированных данных. Если ваши данные выглядят как набор бумажных документов — поздравляю! Это хороший кейс для Mongo. Но если у вас есть ссылки между документами, то у вас на самом деле нет документов. MongoDB в этом случае — плохое решение. Для социальных данных это действительно плохое решение, так как самая важная часть — связи между документами.
🔰ш
ааа, монгари
🔰ш
Помогайте с $slice
🔰ш
Как заставить это работать?
🔰ш
Или эта штука только для массивов в документе?
Dmitry
а коллекция может
Dmitry
народ, такой вопрос, есть 60+ Гб данных, около 3 миллионов записей, периодически нужно это все экспортировать в определенном виде, в общем упираюсь в IO диска. Если настроить шардинг оно реально будет лучше или за счет сети станет медленнее так как данные все-равно нужно читать все раз в сутки? Ну и еще, не криворукий ли я, если на 3 млн записей уперся в IO?
yopp
Вариант завести hidden или просто реплику и с неё синхронизироваться.
Dmitry
Смотря как упираешься и как на долго.
ну каждый день, load average поднимается до 30 :-/
yopp
Второй вариант сделать читалку оплога и перейти на реалтайм синхронизацию
Dmitry
иногда сервак загибается
yopp
Это всё субъективизмы
Dmitry
ну я не сколько синкаю, у меня скрипт вытягивает данные и ложит в нужное место
Dmitry
да, сейчас пробуем закупить IOPS у амазона, вот думаю насколько опрадано
yopp
На магнитных дисках небось?
yopp
Ой. Амазон
Dmitry
не, SSD
Dmitry
EBS
Dmitry
но почитал
Dmitry
там столько ограничений ппц
yopp
Да, я понял. Лучше уж на магнитных дисках. ;)
Dmitry
изначально как оказалось у нас было 10% от максимального IO
Dmitry
короче я спрашиваю потому что думаю что лучше: тупо закидать деньгами и купить IO, или заморачиваться с кластером - что лень :)
yopp
Посчитай экономику и реши
Dmitry
и + шардинг надо сапортить
yopp
Шардинг тебе тут не поможет
yopp
Точнее поможет, но на 60гб это оверкилл
Dmitry
ну оно будет расти думаю до 200 гб легко
Dmitry
скоро может и до 500 гб
Dmitry
начинали со 100 мб :)
yopp
Скоро это когда?
Dmitry
ну в рамках 3-4 месяцев
yopp
Вот у ребят 7гб в час, вот это я понимаю динамика.
yopp
3-4 месяца простоя шарда — дорого
Dmitry
ну мы пока растем и все больше в тестовом режиме
Dmitry
подвязан ES еще к монге для поиска
Dmitry
тоже на AWS лол
yopp
Ну деньги раз на это есть, значит всё хорошо развивается
Dmitry
короче все очень зыбко и не понятно, каждый день может быть что-то новое, сегодня 60гб завтра 500 :)
Dmitry
ок, ясно, попробуем докупить IO
Dmitry
просто хочется понимать что это не я сильно налажал с кодом или структурой данных :)
yopp
Я бы добавил реплику, и снимал бы данные с secondaryPreffered чтоб избежать кеш-трешинга на праймари
Dmitry
ну то есть может это детский лепет и я так криво написал что IO должно быть в 10 раз меньше
yopp
Ну ты дай больше объективных показателей, будет понятно есть ли смысл что-то крутить
Dmitry
Я бы добавил реплику, и снимал бы данные с secondaryPreffered чтоб избежать кеш-трешинга на праймари
подумаем, думаю так и сделаем...получается IO уходит на вторую ноду?
yopp
Да
Dmitry
просто чтобы знать на что смотреть
yopp
Ты говоришь что упираешься в IO. Покажи объективные данные по IO, чтоб было видно как именно и как долго.
yopp
Afair, на обычном ebs при всех раскладах больше 2-3к ипос вроде как не выжать
yopp
Который ssd
yopp
Но я могу ошибаться, этих облаков как грязи.