
Alexey
28.06.2017
14:07:40
напишу тогда в гугл.группы, чтобы тут не флудить

Andrey
28.06.2017
14:09:56

Alexey
28.06.2017
14:32:00
нашел тут такой совет: threshold for maximum total size of merged parts, by default - 100 GB.
In config.xml, write
<merge_tree>
<max_bytes_to_merge_at_max_space_in_pool>100000000000</max_bytes_to_merge_at_max_space_in_pool>
</merge_tree>
with desired value.
поможет ли это интересно

Google

Maksim
28.06.2017
14:36:31
скажите пожалуйста - делаем бэкапы - архив с содержимым папки shadow иногда отличается по размеру в меньшую сторону. так может быть?
делаю ALTER TABLE $TABLE FREEZE PARTITION '2'
он в shadow кладет все данные таблицы. потом эти данные копирую архивирую и загружаю на бэкап сервер
по списку бэкапов - вижу, что размер у некоторых бэкапов может отличаться
такое чувство что кх компрессирует их постоянно и размер плавающий. или бэкапы кривые по какой-то причине. но копирование и архивирование без ошибок

Вася
28.06.2017
14:48:36
Кажется что после слияния размер может стать меньше.

Maksim
28.06.2017
14:53:29
на 1 gb ?
бывало и на 3 gb

Andrey
28.06.2017
14:56:01
Конечно, после мержа оч сильно жмутся данные

Tatiana
28.06.2017
14:56:43

Maksim
28.06.2017
15:10:08

Andrey
28.06.2017
15:11:06

Google

Tima
28.06.2017
15:18:15
Где-то в документации написано, что для ускорения вставки данных, можно вставлять в несколько потоков. Насколько много потоков можно использовать?

Alexey
28.06.2017
15:19:19
наверное где-то там же написано, что тестируйте разные варианты и выбирайте оптимальный
все очень индивидуально
зависит и от железа и от вашего решения

Alexander
28.06.2017
15:21:15
Processed ..., 16Gb - это расход памяти используемой при запросе или количество данных обработанных?

Maksim
28.06.2017
16:27:33
Code: 1000. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Access to file denied: insufficient permissions: /var/lib/clickhouse/data/Ermolenko/MIGRATES/20170602_20170602_2_2_0/FILENAME.bin.
Error: Process 13726 detected, but you don't have permission to control it
от чего может возникать эта ошибка?
drwxr-xr-x 7 clickhouse clickhouse 4096 Jun 14 15:19 Ermolenko

Andrey
28.06.2017
17:34:29

Alexander
28.06.2017
17:54:27
Было б удобно расход по памяти на запрос видеть после выполнения в клиенте.

Andrey
28.06.2017
18:23:36

Kirill
28.06.2017
18:36:27

Tima
28.06.2017
18:38:35
В том то и дело, я не упираюсь. Потому и возник вопрос, стоит ли писать в несколько потоков, ведь это не может быть "бесплатным". Спасибо за пояснение

Andrey
28.06.2017
19:10:29
Тут же все сильно индивидуально. Кто-то на рейдах из SSD работает, а кто-то на полуживых 7200rpm

Alexander
28.06.2017
19:47:29

Andrey
28.06.2017
19:47:46

mantisa
28.06.2017
23:23:26
/stat@combot

Google

Combot
28.06.2017
23:23:26
combot.org/chat/-1001080295593

Xadeta
29.06.2017
00:32:47

Андрей Михайлович
29.06.2017
07:33:50

Andrey
29.06.2017
07:44:50

Maksim
29.06.2017
08:57:21
Добрый день, скажите если добавить пользователя ubuntu в группу clickhouse - не будет ли проблем с доступом ?

Felixoid
29.06.2017
09:15:15

Maksim
29.06.2017
09:16:34
А какая задача решается?
когда импорт данные делаю - на файлах владелец ubuntu и потом конфликт доступа происходит при запросах

Felixoid
29.06.2017
09:18:33
Тогда тут надо пользователя ClickHouse в группу Ubuntu, нет?

Andrey
29.06.2017
09:24:22

Maksim
29.06.2017
09:24:55
с облака беру бэкап. распаковываю в data данные удаляю. свои загружаю. сервер запускаю

Andrey
29.06.2017
09:25:27
команда chown

Maksim
29.06.2017
09:26:05
да я знаю)
но она не меняет всем файлам владелца

Andrey
29.06.2017
09:26:28
у нее есть флаг -R

Maksim
29.06.2017
09:26:54
не работает
приходится делать так
sudo find data -type f -exec chown clickhouse:clickhouse {} \;

Google

Maksim
29.06.2017
09:27:05
но это слишком долго по времени

Andrey
29.06.2017
09:39:34
chown clickhouse:clickhouse ./имя директории с проблемными файлами -R
Либо просто лейте файлы под юзером clickhouse

Maksim
29.06.2017
09:40:47

Andrey
29.06.2017
09:41:46
sudo -u clickhouse %command_name%

Maksim
29.06.2017
09:42:29
как вариант сча попробую

Andrey
29.06.2017
09:43:04
сколько ж у вас там файлов что chown отрабатывает долго

Vladimir
29.06.2017
11:40:03
Всем привет! У нас критическая проблема с кластером на КХ! Я писал об этом в группу, мерж между нодами отваливается, данные не нормализуются, скачат все время, очень много ошибок типа Too much parts. Merges are processing significantly slower than inserts и statistics_523.track_sharded (Merger): Part 20170606_20170611_545228_1109144_1560 intersects previous part 20170601_20170606_200_565402_2676
Вставляем балком по 100-500 записей в секунду но с разных источников. На каждой ноде больше терабайта данных, 6 нод, 3 шарда по 2 реплики. Как можно победить эти ошибки? Кто может сталкивался с таким?

Roman
29.06.2017
11:41:34

M
29.06.2017
11:42:29
У нас такое периодически бывает. Помогает рестарт клика, с которго идут ошибки. Он потом догоняет

Alexey
29.06.2017
11:42:47
"по 100-500 записей в секунду но с разных источников"
а сколько источников таких?

Vladimir
29.06.2017
11:43:10
штук 30

Alexey
29.06.2017
11:43:25
ну т.е. идет 30 инсертов в секунду?
есть ли возможность увеличить время буферизации на источниках? Ну или да, использовать буфферед таблицу

Vladimir
29.06.2017
11:45:55
Сейчас попробуем увеличить время буферизации.

Kirill
29.06.2017
11:49:13
А лучше пишите куда-нибудь вроде kafka/nats.io и от туда выгребайте и пишите пачками с 1-го "источника" в КХ

Maksim
29.06.2017
11:51:05
даже с -r флагом

Oleg
29.06.2017
11:52:11
-R флаг

Google

Vladimir
29.06.2017
11:52:27

Andrey
29.06.2017
11:52:56
даже с -r флагом
-R большая. Обозначает рекурсивное проставление. Т.е. по всем поддиректориям указанной директории.

Maksim
29.06.2017
11:53:27

Oleg
29.06.2017
11:53:37
там еще детали обработки симлинков есть, если у вас есть они

Maksim
29.06.2017
11:53:39
и tar тоже

Oleg
29.06.2017
11:54:36