
Борис
15.09.2017
14:15:59
Хотя и странно, что за это не отвечает паттерн Репозиторий
в чате капитаны узнали что существуют профайлеры
Горит чьето эго.... пожарных вызывали?
Вопрос про "включен ли у тебя секюрити" в разговоре про скорость работы, без дополнительных деталей, был настолько же корректен, как и выбор фрейморка по скорости бутстрапа. Так что извини, что напомнил тебе о профайлере.

Sergey
15.09.2017
14:23:13

Борис
15.09.2017
14:25:02

Google

Sergey
15.09.2017
14:25:55
"модель" это данные (считай база" и "контроллер их меняет"
логично че
есть процедуры, и есть данные

Oleg
15.09.2017
14:42:03
есть вопрос почему модель занимается вопросами хранилища, а контроллер бизнес-логикой ?
В моём видении моего приложения механизм "Модель" фреймворка я буду использовать только для распределения данных по хранилищам ( MySQL, MongoDB, ElasticSearch) . Для бизнес - логики я реализую свой механизм который будет работать как со статически заданными (я бы сказал первичными) моделями, так и виртуальными (производными), декларативно описывая правила получения производных моделей и так же декларативно логику как первичных так и производных моделей в модулях

Sergey
15.09.2017
14:47:41
https://dev.mysql.com/doc/refman/5.7/en/json.html

Dmitry
15.09.2017
14:50:57
https://www.postgresql.org/docs/9.6/static/datatype-json.html так лучше

Oleg
15.09.2017
14:56:10
почему все так не любят Mongo?Мне никогда не нравился синтаксис
SQL. В MySql красивого селекта не увидел, в postgres получше но все равно не нравится. Если вопрос только во вкусе то не вижу проблем с mongo, если есть какая то критическая причина хотелось бы услышать.

Яўген
15.09.2017
14:57:19
медленные выборки не являются достаточной причиной?

Aleh
15.09.2017
14:57:29
Транзакции)

Яўген
15.09.2017
14:57:49
медленная запись также
ну некое подобие транзакционности у монги есть, вроде

Google

Oleg
15.09.2017
14:59:53
то есть вы хотите сказать что на одинаковом железе, posgres в режиме выборки по json работает быстрее mongo?

Aleh
15.09.2017
15:02:36
Да
Jsonb в постгре быстрее монги
Во всяком случае был в 9.4 постгре и такой же свежести монге

Sergey
15.09.2017
15:03:28
в монге есть шардинг хороший
около 2х терабайтов лежит в ней, размазанные по пачке шардов

Яўген
15.09.2017
15:08:17
ну если основная задача этих данных “лежать” , то да, норм решение
мы тоже сейчас монгу используем
данных что-то около терабайта
обновление данных занимает по нескольку дней

Sergey
15.09.2017
15:10:11
у чела то поиски и прочее в эластике, и у нее шардинг не хуже
а монга насколько я понял будет использоваться как тупое хранилище

Sergey
15.09.2017
15:11:13

Sergey
15.09.2017
15:11:33
ну вот честно я не могу придумать себе юзкейсов для монги(

Sergey
15.09.2017
15:11:47
в эластике поменьше, около 500гб

Яўген
15.09.2017
15:12:32
юзкейс: структура данных, загруженных в каждый из доков не одинаковая и хер его днает какие новые данные прийдут через месяц
а еще ее GridFS использовали

Sergey
15.09.2017
15:13:18
мы еще на кассандру косимся, но не тестили

Google

Яўген
15.09.2017
15:13:40
ну там реально не известно какие данные от брокеров прийдут
поэтому сидим и выколупываем

Sergey
15.09.2017
15:14:00
иногда лучше в файлики складировать

Яўген
15.09.2017
15:14:41
а потом дни идут на то, чтоб обновить и понять к кому какие данные относятся так как монга тормозючая шо пиздец
если бы сначала выбрали реляционную БД получили бы проблемы с alter table

Sergey
15.09.2017
15:17:36

Евгений
15.09.2017
15:17:52
Тянки есть?

Sergey
15.09.2017
15:18:41
что-то типа стрима ивентов
но только что бы касандру юзать надо хорошо представлять какие тебе запросы понадобятся)
я ее тыкал - было удобненько
я там хранил сообщения из чатов

Sergey
15.09.2017
15:29:13
да вот надо пощупать, как только закончим миграцию на кубер

Евгений
15.09.2017
18:06:05
Монго может падать потому, что слишком много процессов обращаются к ней?
Те запускается один процесс по крону, он еще не завершен, а через некоторое время такой же опять запускается и так до бесконечности
Парсинг событий из вк и фейсбук

Juri
15.09.2017
18:42:49
Кто как вносит изменения в бд с 100+ лямов записей и весом в 50гб +? подскажите как быстрее добавить поле, изменить индекс

Alex
15.09.2017
18:43:05
йопта
такие базы обычно ен меняют

Igor
15.09.2017
18:43:22

Google

Alex
15.09.2017
18:43:26
а если меняют то не на innodb

Dmitriy
15.09.2017
18:43:31

Alex
15.09.2017
18:43:38
есть tokudb для такого

Igor
15.09.2017
18:43:40
pt schema change (от перконы. мог название попутать)

Alex
15.09.2017
18:43:51
меняют =)
там же реиндекс будет целый день идти

Igor
15.09.2017
18:44:00
и аналогичная тулза от facebook, гуглится элементарно

Dmitriy
15.09.2017
18:44:36

Alex
15.09.2017
18:44:46
27 лямов еще ладно
у него 100+ лямов

Igor
15.09.2017
18:45:02
там ничего военного нет, скрипт поднимает копию таблы, альтерит, начинает переливать данные. старую таблу обмазывает триггерами чтобы вылавливать изменения данных во время перелива

Alex
15.09.2017
18:45:03
50 гиг. значит там страшная табличка

Dmitriy
15.09.2017
18:45:22

Igor
15.09.2017
18:45:29
в обем эта задача не проблема года эдак с 2010

Alex
15.09.2017
18:45:38
а как насчет индекса?)

Igor
15.09.2017
18:45:47
50гиговые таблы альтерил по живому без даунтайма
ну займет пол дня, ну и хуй с ним

Alex
15.09.2017
18:46:08
я помню баду рассказывали как у них индексы сутки менялись)

Igor
15.09.2017
18:46:32
ну или день. главное без даунтаймов абсолютно

Dmitriy
15.09.2017
18:46:36

Igor
15.09.2017
18:46:51

Google

Alex
15.09.2017
18:46:55
страхи.. ладно)

Igor
15.09.2017
18:47:26
на хайлоаде всегда все страшно ) можно и селектом базу повалить )

Alex
15.09.2017
18:48:05
это я знаю)
сталкивались)

Juri
15.09.2017
18:59:11
вснеу ясность, mariadb 10 innodb

Igor
15.09.2017
18:59:55

archil.net
15.09.2017
19:37:59
Всем привет, пишем проект на Yii2 +mysql, есть таблица статистики, каждый день туда добавляется около 2кк записей. Из этой таблице в дальнейшем будут проводиться выборки. Думаем сделать партиционирование, и хотим реализовать это дело через PHP, после часа поисков не смог найти какого-то похожего решения, кто-то сталкивался с такой проблемой? Может есть какие-то наработки?

Sergo
15.09.2017
19:39:26
2кк каждый день?

Mofsy
15.09.2017
19:39:33

Sergey
15.09.2017
19:40:00
мускуль и по 2кк в день
может с одной "к" ошиблись)

archil.net
15.09.2017
19:40:50
2 миллиона записей

Eugene
15.09.2017
19:43:27
Подожди. Ты партиционирование средствами пхп хочешь сделать?