@pgsql

Страница 182 из 1062
Аггей
07.12.2016
16:59:27
Импортозамещение

Alex
07.12.2016
16:59:50
Ну!

Аггей
07.12.2016
17:00:31
Столько всего накидали - попробовать бы все )

blkmrkt
07.12.2016
17:17:31
ребят, а что в итоге сейчас модно использовать для максимально простого партиционирования?
Я бы брал rethinkdb, только там недавно был диссонанс среди разработчиков - то ли энтерпрайз за ним развалился, то ли опенсос сообщество взбесилось. Есть Elasticsearch, но читал что у него плохие результаты тестов jepsen, и не рекомендуется хранить в нем данные без бэкинг бд с лучшей гарантией консистенси. Автошардинг из коробки есть например у CockroachDB и Riak

Google
Denis
07.12.2016
17:21:33
https://kkovacs.eu/cassandra-vs-mongodb-vs-couchdb-vs-redis

Fike
07.12.2016
17:27:15
вам партицирование или с данными работать?

Sergey
07.12.2016
17:27:16
мог просто ссылку кинуть :}

Fike
07.12.2016
17:27:36
какой-то безумный вопрос

кто рекомендует эластик - вы серьезно предлагает поисковый движок?

Sergey
07.12.2016
17:28:15
мог просто ссылку кинуть :}
Мало ли, мож там за рекламу банят :)

Evgeniy
07.12.2016
17:30:59
рефинк же умер, чо вы про него вспомнили

Fike
07.12.2016
17:33:00
очень на эластик по апишке похоже, но в любом случае они там внутри допиливали

про rethink отчасти наврал, кажется, нужно пару минут

Google
blkmrkt
07.12.2016
17:34:30
очень на эластик по апишке похоже, но в любом случае они там внутри допиливали
да там наверное все in-memory. очень удобный сервис, особенно списки синонимов, но очень бьет по цене нужда в слейвах для сортировки/ранжирования по другим параметрам

Alex
07.12.2016
17:35:06
Не некоторых кейсах эластик сливает постгресу

Fike
07.12.2016
17:35:10
я про rethink, но там тоже шарды, хотя я уверен, что на той неделе читал именно то, что написал. у эластик все в порядке.

о господи

я не знаю каким капсом надо написать, что эластик не имеет отношения к базам данных

Alex
07.12.2016
17:36:03
Некоторые считают что относицо

Fike
07.12.2016
17:36:04
но как он может проиграть, если у него и поиск, и kv доступ возведены в абсолют - не знаю

Fike
07.12.2016
17:36:55
потому что это поисковый движок

Aleksandr
07.12.2016
17:37:05
И что?

Alex
07.12.2016
17:37:06
Яж говорил :)

Aleksandr
07.12.2016
17:37:15
Дефайн база данных

Alex
07.12.2016
17:37:23
Нет

Fike
07.12.2016
17:37:23
не эластик

Aleksandr
07.12.2016
17:37:30
Ок

Alex
07.12.2016
17:38:07
Некоторые эластик юзают как бд

Fike
07.12.2016
17:38:17
некоторые редис юзают, как бд

и файлы, как бд

Alex
07.12.2016
17:38:25
И это мягко скажем прикольно наблюдать

Google
Fike
07.12.2016
17:38:30
некотоырм стоит подтянуть профессиональные навки

Alex
07.12.2016
17:39:11
Зачем ? Нода монга и эластик спасут мир :)

Aleksandr
07.12.2016
17:40:48
Лол

Так чем эластик не бд?

Fike
07.12.2016
17:41:15
хз короче, откуда я про rethink выятнул, disregard that

ты можешь назвать базой данных то, что не хранит данные?

Denis
07.12.2016
17:42:11
Народ, с 9.5 до 9.6 мигрировать только через дамп\restore?

Антон
07.12.2016
17:42:34
госпади, а я всего лишь хотел узнать какой плагин для нормального партиционирования сейчас стабильный для пг есть :)

Антон
07.12.2016
17:42:45
но видимо нужно быть более конкретным

Evgeniy
07.12.2016
17:42:54
да норм база, только не очень данные надежно хранит https://aphyr.com/posts/323-jepsen-elasticsearch-1-5-0

Alex
07.12.2016
17:43:05
Дяди шутят

Fike
07.12.2016
17:43:07
Нет, не могу.
https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-source-field.html чтд

blkmrkt
07.12.2016
17:43:15
Так чем эластик не бд?
вот краткое пояснение, там ссылка на тесты aphyrа: http://igor.kupczynski.info/2014/06/26/elastic-cap.html

Fike
07.12.2016
17:43:38
Availability Reads and writes succeed on all nodes;

Ildar
07.12.2016
17:43:41
Fike
07.12.2016
17:43:42
for fuck's sake

Антон
07.12.2016
17:44:03
пользуясь случаем прорекламирую pg_pathman : ) https://github.com/postgrespro/pg_pathman
насколько можно доверить важные данные? бекапы конечно есть, но не хотелось бы встрять

Aleksandr
07.12.2016
17:44:32
https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-source-field.html чтд
Это ты к чему? Хочешь сказать в эластике нельзя хранить данные?

Fike
07.12.2016
17:44:44
он не обязательно их хранит

Google
Aleksandr
07.12.2016
17:45:17
Не обязательно да

Но тем не менее

Alex
07.12.2016
17:45:35
Не хранит но база :)

Fike
07.12.2016
17:45:41
тем не менее ты хочешь просто заездить меня до того состояния, в котором я соглашусь. мы поняли.

Илья
07.12.2016
17:45:52
Это ты к чему? Хочешь сказать в эластике нельзя хранить данные?
Я бы не стал. У меня эластик несколько раз терял данные при обычном рестарте сервиса.

Aleksandr
07.12.2016
17:46:08
Не хранит но база :)
Не всегда хранит. Может хранить только индексы

Admin
ERROR: S client not available

Quet
07.12.2016
17:46:24
нормально в нем хранятся данные

только это должны быть данные которые не страшно потерять )

и есть откуда восстановить если что

Alex
07.12.2016
17:47:34
Lol

Илья
07.12.2016
17:47:55
У меня только индексы в эластике.

Fike
07.12.2016
17:48:10
что не так-то? в идеале у тебя вообще должен быть воркер, который ходит по всей базе и перезасовывает ее в эластик

Ildar
07.12.2016
17:48:21
насколько можно доверить важные данные? бекапы конечно есть, но не хотелось бы встрять
работает стабильно на большинстве кейсов. Но нужно, конечно, погонять сначала на конкретно вашей тестовой базе

Fike
07.12.2016
17:48:26
Fike
07.12.2016
17:49:05
я Алексу

Alex
07.12.2016
17:49:10
Есть кейсы где он медленней на том самом перезвсовывании и скорости доступа к данным

Это вопрос того как работать с данными

Google
Fike
07.12.2016
17:49:53
чивось

Alex
07.12.2016
17:50:20
Я с телефона не хочу расписывать кейс

Но встречал такое

Aleksandr
07.12.2016
17:50:52
@etkee какие-то пионерские тезисы. Эластик не база.. как должно быть в идеале ) мы оба понимаем, что есть варианты когда можно держать в эластике данные

Fike
07.12.2016
17:51:05
да в файлах храните, чего там

Aleksandr
07.12.2016
17:51:23
В файлах тоже храним )

Alex
07.12.2016
17:51:24
Можно хоть в мемкешке

Хоть в файлах

Вопрос сферы и скорости доступа к данным

Fike
07.12.2016
17:54:00
извините, что я опять с rethink, но вот > All reads and writes to any key in a given shard always get routed to its respective primary про два терабайта был неправ, они поделятся на шарды внутри таблицы.

blkmrkt
07.12.2016
18:20:42
Господа, помогите, я уже не знаю что можно сделать. Бессилие от незнания устройства постгрес усугубляется тем, что "attempted to delete invisible tuple" даже не гуглится. Точнее гуглится, но намеков на решение не нахожу. Мне нужно просто сдампить те записи которые читаются, начать делать бекапы, и забыть этот кошмар. Я могу написать код, чтоб подергать данные rangeами, но в таблицах нет серийного pkey, по которому я мог бы планировать выборку. История вкратце: повисло ядро из-за corrupted md0. Я пересобрал md2 на котором были данные, fsck показал чистую ФС, скопировал pgdata на внешний диск, переустановил ОС и постгрес, но pg_backup отваливается на первой corrupted записи. Включил вот это: zero_damaged_pages = on ignore_system_indexes = on enable_indexscan = off enable_bitmapscan = off enable_indexonlyscan = off ...но оно не помогает от ошибок timestamp out of range, которые не получается DELETE из-за этой ошибки "attempted to delete invisible tuple". Попытка select * from tablename; заканчивается крашем процесса postgresql с Segmentation fault на ф-и heap_deform_tuple.

Такое чувство, что во время краша postgres не дописал или не закоммитил какие-то трансакции, и от них не может избавиться новый сервер.

Paul
07.12.2016
18:32:36
а нельзя сделать просто order by и просто селектами бежать по записям "сверху вниз" по одной? Это займет гору времени, но код предельно примитивен

blkmrkt
07.12.2016
18:36:32
а нельзя сделать просто order by и просто селектами бежать по записям "сверху вниз" по одной? Это займет гору времени, но код предельно примитивен
Хмм, я как-то и не подумал, попробую как крайний вариант наверное. Может есть опенсорц скрипты для этого?

Paul
07.12.2016
18:40:28
не знаю, я бы просто руками написал. С точки зрения кода это должно быть предельно примитивное творчество - селект по 1 записи, сохранение в csv. структуру придется выкачивать отдельно

Sergey
07.12.2016
18:42:00
А зачем в csv? Нельзя разве параллельно БД с такой же структурой развернуть и сразу туда сливать инфу?

Нужно же в конце концов рабочую базу иметь

С минимальной потерей инфы

Страница 182 из 1062