@pgsql

Страница 92 из 1062
Konstantin
16.09.2016
17:09:52
Тож норм

Cstore

Ссд

Меланхолично только пакуется

Google
Magistr
16.09.2016
17:12:27
Ну вы там держитесь..
да там нестрашно всего 12 инстансов хадупа

Konstantin
16.09.2016
17:12:39
Норм

На много не выжмешь на hive

Плюм только

Mapr?

Magistr
16.09.2016
17:14:57
ага а еще спарк, в основном джобы из азкабана считать стату

Konstantin
16.09.2016
17:15:28
Я его пока не могу, он ругается странно на компрессию, типа депрешиетед формат

Завтра в фейсбуке запостю

Ему что в кодак не прописываю, у него депрешиетед формат

Мапр :-), такой Мапр

?

Google
Konstantin
16.09.2016
17:18:26
Чего его все любят?

?

Хотите поделюсь знанием как стать незаменимым?

Прям реально

Fike
16.09.2016
17:38:13
нет

Konstantin
16.09.2016
17:38:24
Буддой

:-)

Зря

Меня прям толкнул

О

Нужно знать тельгу, хинди и китайский

Все

Бонусов ведро

?

нет
Теперь ты знаешь все, и жизнь уже не будет прежней :-)

?

Жми на ентер :-)

Не иетригуй общественность

Fike
16.09.2016
17:47:06
Да-да, мы уже поняли, смайлики, с гринплюмом никто не сравнится, мап-редюс плох совсем не потому, что ты с ним не разобрался, и вообще ты, наверное, немного пьян и тебе хорошо. Я готов согласиться с чем угодно, только давай в чате про постгре прекратится вот это вот, а телеграм не будет показывать заблокированных пользователей не только в чатах один на один, но и в общих тоже.

Konstantin
16.09.2016
17:47:34
Иес

Google
Aleksandr
16.09.2016
22:04:09
https://scontent.xx.fbcdn.net/v/t1.0-9/14369999_10210525380832122_254462638708236490_n.jpg?oh=7a850cd5b23c9dba4e1d213a92478ce7&oe=5842FD36

Yury
16.09.2016
22:14:18
https://www.youtube.com/watch?v=7WXCfUpVqPs

blkmrkt
17.09.2016
13:32:15
бекап переносится на новый сервер больше 4х суток, это в рамках нормы?

Yury
17.09.2016
13:57:22
Александр
17.09.2016
14:03:27
А то?!

Ио

Там же файлики

Dmitry
17.09.2016
14:39:38
бекап переносится на новый сервер больше 4х суток, это в рамках нормы?
вы делаете pg_basebackup, или реально копируете файлы?

Maxim
17.09.2016
14:40:27
ну pg_basebackup вполне реально копирует файлы, разве нет?

blkmrkt
17.09.2016
14:40:33
вы делаете pg_basebackup, или реально копируете файлы?
pg_dump через ssh, а на другом конце | psql dbname

Maxim
17.09.2016
14:40:55
ох, вот так точно не стоит делать

лучше pg_basebackup

Dmitry
17.09.2016
14:41:58
ну pg_basebackup вполне реально копирует файлы, разве нет?
не совсем так, посмотрите на cpu у backend'а, по которому через streaming protocol данные льються

Maxim
17.09.2016
14:42:43
ну anyway на выходе $DATADIR получается ;)

blkmrkt
17.09.2016
14:51:27
лучше pg_basebackup
у меня исходный сервер с магнитными дисками, а новый ssd raid. сейчас iowait на исходном сервере все время занимает, а на ssd iowait составляет 0.1% и загруженность cpu 5% в среднем я не делал basebackup потому, что там появились дубликаты pkey, toast подфаршмачен, и не хочу чтоб это переехало на новый сервер

blkmrkt
17.09.2016
14:54:30
ну так дело то в том, что на destination сервере чпу вообще не загружен, узкое горлышко это исходный сервер с магнитными дисками. но блин, 2ТБ переносить более 4 суток это что-то дикое вообще. Будто бы он не последовательно читает, а рандомно

Dmitry
17.09.2016
14:55:12
а кто сказал, что файл расположен последовательно по блинам?

Google
Dmitry
17.09.2016
14:55:22
pg не автоекстендид

только wal

в процессе экспулатации выделяются блоки по 8k - вот 8k близко расположены с большой долей вероятности

но не больше

blkmrkt
17.09.2016
14:56:57
то есть если иногда делать CLUSTER, ситуация улучшится?

Dmitry
17.09.2016
14:57:05
да

ну или обычный vacuum full

pg_repack тоже умеет cluster

blkmrkt
17.09.2016
14:58:32
ох ну спасибо, немного стало понятнее

Stanislav
17.09.2016
15:03:56
Дим, скажи ключ репака для кластеризации

blkmrkt
17.09.2016
15:12:02
ох черт, только что все остановилось: ... COPY 0 COPY 386 COPY 0 COPY 120442561 COPY 3266460433 COPY 0 COPY 123537416 COPY 0 setval -------- 1 (1 row) pg_dump: Dumping the contents of table "profile_chunks" failed: PQgetResult() failed. pg_dump: Error message from server: ERROR: unknown type of jsonb container pg_dump: The command was: COPY public.profile_chunks (id, "time", diff) TO stdout; COPY 1389884896 unknown type of jsonb container даже не гуглится, что это может быть?

Yury
17.09.2016
16:28:48
страшная вещь, я натакое налетал когда руками этот jsonb ковырял (в смысле из Си кода)

Dmitry
17.09.2016
22:11:19
Дим, скажи ключ репака для кластеризации
-o https://github.com/reorg/pg_repack/blob/master/bin/pg_repack.c#L2059

Stanislav
17.09.2016
22:11:55
Thanks

blkmrkt
18.09.2016
11:39:32
как можно заставить pg_dump игнорировать ошибки?

Айтуар
18.09.2016
12:12:47
Базу нужно чинить

Yury
18.09.2016
12:38:42
тут увы не pg_dump ошибки находит а сам postgres

Pavel
18.09.2016
12:42:47
Кто-нибудь имел успешный опыт хранения файлов в БД ? Размер до 10мб, количеством порядка тысяч. Все хорошо?

Под несильной нагрузкой в максимум в десятки запросов в секунду к БД.

Google
Yury
18.09.2016
12:44:58
думаю не ляжет но ничего хорошего в этом нету

MVCC никто не отменял для них

Pavel
18.09.2016
12:46:11
Тут речь о построении MVP продукта, и есть соблазн все запихнуть в базу для удобства, на первое время по крайней мере. А чтобы отдавать файлы, есть идея кешировать через nginx или аналогичное как-нибудь.

ThisIs
18.09.2016
12:46:26
Вообще рекомендуют не хранить файлы в бд

Pavel
18.09.2016
12:47:22
Да я много про эти рекомендации читал, а тут как раз прошу опровергнуть это контрпримером. Ведь странно что в БД есть механизм хранения файлов но все им не рекомендуют пользоваться.

Должен же он быть хоть для чего-то пригоден ;)

Пока только я нашел один действительно весомый аргумент против хранения в базе - что файлы из нее будут всегда читаться с диска, и никогда не закешируются в памяти.

В отличие от обычных данных.

ThisIs
18.09.2016
12:49:35
а сколько весят файлы?

аа все

Pavel
18.09.2016
12:49:57
Это скорее всего будут в 98% обычные фотографии, то есть до 10мб

ThisIs
18.09.2016
12:49:58
сорри не увидел

ptchol
18.09.2016
12:50:42
а почему нельзя взять простенькие решения для хранения файлов которые уже есть ?

Pavel
18.09.2016
12:50:52
Например какие?

Ну можно конечно взять библиотеки для абстракции ФС на уровне проекта. Но это выглядит менее удобно чем просто взять и положить в базу закачанный файл как есть.

Система мультитенатная будет по природе, у каждого клиента свой маленький интстанс, и в таких условиях не очень легко оперировать файлами.

Yury
18.09.2016
12:53:51
а как вы будете клиенту(браузеру?) отдавать файлы?

Magistr
18.09.2016
12:54:42
Например какие?
s3 например или можно структурировано в фс класть

Pavel
18.09.2016
12:55:01
Yury
18.09.2016
12:55:20
типо один запрос по http к nginx, потом трансфер ваше приложение, потом в СУБД? Это всё очень медленно. Надо понимать что в этом случае вы заюзаете целый процесс или тред у приложения и целый процесс у СУБД.

Pavel
18.09.2016
12:55:50
Ну это же только первое обращение, дальше все закешируется и будет отдаваться быстро.

Страница 92 из 1062