@clickhouse_ru

Страница 483 из 723
Michal
03.04.2018
15:44:10
и т.д.

Stanislav
03.04.2018
15:59:29
пришел к аналогичному, но пользователь default оказался нужен для репликации.

Vsevolod
03.04.2018
16:10:18
[ 63%] Building CXX object utils/config-processor/CMakeFiles/config-processor.dir/config-processor.cpp.o /root/ClickHouse/libs/libdaemon/src/BaseDaemon.cpp: In member function 'void SignalListener::onFault(int, siginfo_t&, ucontext_t&, ThreadNumber) const': /root/ClickHouse/libs/libdaemon/src/BaseDaemon.cpp:375:26: error: 'BUS_MCEERR_AR' was not declared in this scope case BUS_MCEERR_AR: ^~~~~~~~~~~~~ /root/ClickHouse/libs/libdaemon/src/BaseDaemon.cpp:375:26: note: suggested alternative: 'BUS_OBJERR'

пытается боец собраться на CentOS 6

Google
Wolf
03.04.2018
16:14:59
Нет смысла уже скоро выйдет восьмерка

Vsevolod
03.04.2018
16:16:07
tell me more

Roman
03.04.2018
16:16:10
Подскажите кто как делает периодическую загрузку файлов в кх, не хочется писать костыли. Сильно не пинайте, только начал знакомство с кх.

Vsevolod
03.04.2018
16:16:15
впрочем, вижу, что в мастере оно исправлено

Roman
03.04.2018
16:18:30
А можно немного подробнее

Wolf
03.04.2018
16:20:08
Ну там есть загрузка данных из файла в доке есть это

Какой нибудь CSV или tsv

Jen
03.04.2018
16:21:04
Или где то рядом...

Michal
03.04.2018
16:22:21
пытается боец собраться на CentOS 6
Вроде как в master поправлено

Vsevolod
03.04.2018
16:22:47
я об этом и написал, да

Google
Vsevolod
03.04.2018
16:23:08
штош, будем собирать мастер, там заодно и нужный нам коммит от @proller есть

Michal
03.04.2018
16:47:07
пришел к аналогичному, но пользователь default оказался нужен для репликации.
угу. Кстати - есть какие-то планы чтоб это поправить? вроде бы должно быть не сложно: https://github.com/yandex/ClickHouse/blob/6f015d8942ce66e0a25cd6657deaf5659148f60d/dbms/src/Storages/StorageReplicatedMergeTree.cpp#L3256

Ivan
03.04.2018
16:50:21
пришел к аналогичному, но пользователь default оказался нужен для репликации.
в настройках можно указать профиль для системных задач с помощью ключа <system_profile>

Michal
03.04.2018
16:53:05
в настройках можно указать профиль для системных задач с помощью ключа <system_profile>
Это немного о другом. Для репликации (ReplicatedMergeTree) и так соединяется с лидером без пароля и с пользователем default.

Lamobot
03.04.2018
17:00:43
Это немного о другом. Для репликации (ReplicatedMergeTree) и так соединяется с лидером без пароля и с пользователем default.
В доке написано что можно указывать в настроках remote_servers юзера и пароль к каждому серверу. Они не заменяют default для репликации? Я у себя юзера поменял, но не тестил без default.

Michal
03.04.2018
17:04:34
Distributed можно настроить c custom паролем, ReplicatedMergeTree нет.

Pika
03.04.2018
18:57:04
Как устроен GraphiteMergeTree. Вот, например, rollup'ы описывают, как данные будут схлопнуты?

03.04.2018
19:00:50
ага

типа у тебя есть несколько периодов хранения, и по мере устаревания данных они будут аггрегироваться при мержах

по тем правилам, что описаны в роллапе

Alexander
03.04.2018
19:01:45
Извините, давно не следил - аналитические/оконные функции ещё не появились?

Alexander
03.04.2018
19:09:33
Понял, а пока не в планах?

Alexey
03.04.2018
19:10:36
Alexander
03.04.2018
19:13:57
Понял. Спасибо.

Stanislav
04.04.2018
05:34:42
Рассказываем, как продолжить пользоваться Telegram в случае его блокировки. Открыть статью.

Kirill
04.04.2018
08:46:26
Коллеги, можете подсказать в чем может быть проблема: при попытке сделать ALTER TABLE ON CLUSTER ADD COLUMN для DistributedMergeTree таблицы получаю такое сообщение: DB::Exception: Table BLA-BLA isn\'t replicated, but shard #2 is replicated according to its cluster definition, e.what() = DB::Exception 11 0

Google
Kirill
04.04.2018
09:01:01
Спасибо за пояснение

Andrew
04.04.2018
09:07:49
1.1.54370, перевели табличку в распределенный режим, стал ругаться "Too many parts (301). Merges are processing significantly slower than inserts." куда смотреть?

Wolf
04.04.2018
09:09:14
ну обычно это слишком много мелких вставок

Andrew
04.04.2018
09:10:07
в system.merges записи проскакивают редко, и проходят быстро... replication_queue гляну, спасибо

Alexander
04.04.2018
10:53:13
Добрый день, коллеги Делаю инсерт в таблицу такого вида INSERT INTO table VALUES (UUIDStringToNum('f9520747-1a12-4aa0-8ab2-d7ba615bc3e2')), (UUIDStringToNum('f9520747-1a12-4aa0-8ab2-d7ba615bc3e2'))... При больших объемах иногда возникают ошибки такого вида: DB::Exception: Unknown identifier: UUIDStringToNum, e.what() = DB::Exception Или DB::Exception: Unknown identifier: UUIDStrin, e.what() = DB::Exception Кто что думает?

Wolf
04.04.2018
10:54:10
вроде вчера писали что тип ууид не работает в кх , но может не так поняол

Alexander
04.04.2018
10:55:59
Я вставляю в поле типа FixedString(16) значение, которую получаю на вызоде функции UUIDStringToNum

Wolf
04.04.2018
10:56:45
ну ошибка говорит что нет функции ууидтунум

вероятно ее нет , либо старая версия и там ее нет , либо новая и там ее выпилили

Alexander
04.04.2018
10:58:12
если вставлять по одной строке, то все ок но если вставить разом 1000 строк, к примеру, начинают валиться подобные ошибки

Артемий
04.04.2018
10:59:44
если вставлять по одной строке, то все ок но если вставить разом 1000 строк, к примеру, начинают валиться подобные ошибки
Попробуйте из лога вытащить именно ту строку (или пачку строк), которая дает сбой. Есть вероятность, что это получится сделать

Vasiliy
04.04.2018
12:06:35
Кто подскажет куда копать? Временами CH рестартится сам по себе в логах только <Information> Application: Received termination signal (Terminated) и других намеков на причину нету

Vasiliy
04.04.2018
12:20:54
Возможно, а не подскажете, как проверить?

Wolf
04.04.2018
12:21:06
dmesg

Vasiliy
04.04.2018
12:23:14
Спасибо, dmesg - есть записи срабатывания oom killer, но для другого процесса.

Павел Максимов
04.04.2018
12:49:06
Ребят, есть словарь из 19 строк, в кликхаусе подтягиваются только 11 строк, ошибок нет, словарь обновляется. В чем может быть причина, что не все строки видит? словарь из файла

понял в чем, ключ дублируется, только уникальные загружает

Andrew
04.04.2018
13:18:05
подскажите, а плюсовый клиент, ну и консольный клиент, при вставке в распределенную таблицу будут слать данные в ту ноду, к которой ему сказали подключиться, или оно настолько крутое что может слать разные строчки напрямую в соответствующие шарды?

Google
Nikolai
04.04.2018
13:19:42
Distributed таблица поделит данные по ключу партиционирования и перешлет на шарды

Andrew
04.04.2018
13:20:52
вопрос про то, произойдет ли это на server-side или client-side сам умеет увидеть что таблица distributed и получить адреса шардов откуда-нибудь?

Wolf
04.04.2018
13:21:19
на серверсайде

клиент вообще по сути не знает что у вас там под капотом , он просто видит таблицу

papa
04.04.2018
13:23:55
вопрос про то, произойдет ли это на server-side или client-side сам умеет увидеть что таблица distributed и получить адреса шардов откуда-нибудь?
клиент не знает create, клиент не знает настройки кластера, у него туда может просто не быть доступа

Alex
04.04.2018
14:38:04
У меня в одном из стобцов храняться пути к файлам, я хочу поискать по ним и не могу правильно двоеточие экранировать. Вот такие строчки в КХ c:\ex\abonentsservice\13.91.0.1065_deployments-181833\abonents.exe c:\ex\abonentsservice\13.91.0.1065_deployments-181833\abonents.exe Вот так я пробую select Image from wssg.sysmon_logs where Date=today() and EventId=3 and Image like 'с:\ex%' limit 100 Не работает.

Alex
04.04.2018
14:40:19
тоже нет

DB::Exception: Exception: OptimizedRegularExpression: cannot compile re2: ^c:\\ex, error: invalid escape sequence: \\e., e.what()

Vladimir
04.04.2018
14:43:21
SELECT 'c:\\example' AS path, match(path, '^c:\\\\ex') AS match ┌─path────────┬─match─┐ │ c:\\example │ 1 │ └─────────────┴───────┘ 1 rows in set. Elapsed: 0.001 sec.

Sergey
04.04.2018
14:43:33
а Dockerfile на будущее поправили так что он сейчас сломан?

LeiDruid
04.04.2018
14:43:35
Добрый день! Подскажите, есть ли способ более активно кэшировать данные? Есть таблица из которой постоянно селектят разными однотипными запросами мы знаем, что этот набор, в 99,5% случаев - последние сутки. Но чтение диска происходит "до дыр", практически постоянно данные перечитываются. Отчасти, это проблема со стороны приложения, которое может ждать не более 30сек, потом запрос повторяется.. Но что можно сделать на стороне clickhouse ?

LeiDruid
04.04.2018
14:47:53
Влазит и больше - как ?

Dmitriy
04.04.2018
14:50:35
попробуйте chproxy оно кеш умеет

Vladimir
04.04.2018
14:51:16
У меня вопрос. Можно ли создавать Nested структуры данных во вьюшках или простых select-запросах? SELECT Nested(1 AS a, 2 AS b) AS c Received exception from server: Code: 46. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Unknown function Nested.

LeiDruid
04.04.2018
14:54:56
use_uncompressed_cache не поможет ли?
неа, не помогает, увеличивал

Vladimir
04.04.2018
14:55:32
а более простым способом никак?
можно попробовать в *like* четыре обратных слеша вместо двух

Google
LeiDruid
04.04.2018
14:55:52
use_uncompressed_cache не поможет ли?
<uncompressed_cache_size>68719476736</uncompressed_cache_size> вот так сейчас, этого должно хватать на неделю данных

Kirill
04.04.2018
14:58:03
LeiDruid
04.04.2018
14:59:41
Это очень интересный вопрос )

Для запросов, читающих хоть немного приличный объём данных (миллион строк и больше), кэш разжатых блоков автоматически выключается, чтобы оставить место для действительно мелких запросов. Поэтому, можно держать настройку use_uncompressed_cache всегда выставленной в 1. Можно комментарий? про миллион строк - это про набор данных в запросе или про количество прочитанных строк в исходных данных ?

Гаврилов
04.04.2018
15:07:50
а если у меня почти все запросы читают 1+ млн ?

LeiDruid
04.04.2018
15:07:54
оу, тогда может и не подойти. А есть способ принудительно это использовать ?

Гаврилов
04.04.2018
15:08:00
значит у меня кеш не работает?

а то думал почему запросы резко стали выполнятся из 100 мс 3 секунды

Slava
04.04.2018
15:08:45
парни, привет.

Подскажите, можно ли как-то отключить лишние уведомления при инсерте в CH из питоновского клиента?

чтобы не было block_send ****

Kirill
04.04.2018
15:12:19
значит у меня кеш не работает?
Это можно посмотреть в метриках select * from system.events where event in ('UncompressedCacheHits', 'UncompressedCacheMisses')

Alexander
04.04.2018
15:27:04
Ребят, а есть ли способ заставить КХ автоматически преобразовывать данные при вставке? Чтобы работало также как DEFAULT expr, а не только когда в запросе INSERT не указан соответствующий столбец.

Kirill
04.04.2018
15:58:14
Есть одна тачка с одним инстансом КХ, одна большая табличка (порядка 10^9 строк), один HDD, движок MergeTree. Данные каждый раз читаются с диска, не из кэша. Запрос вида SELECT col1, ..., coln FROM SomeTable ... . Запрос на чтение одним клиентом одновременно отрабатывает за 100ms, двумя -- каждый по 200ms, ..., n -- каждый по n*100ms, ... 1. Можно ли при совершении n конкурентных запросов заставить отвечать первому клиенту за 100ms, второму за 200ms, ..., n-ному за n*100ms, ...? 2. Пусть данные хранятся на разных дисках, осуществляется несколько конкурентных запросов, каждый к своему диску. Насколько сильно эти запросы будут влиять на время выполнения друг друга? 3. Есть ли продвижение по "Store data at multiple disk volumes of a single server" (https://www.altinity.com/blog/2018/1/8/clickhouse-roadmap-2018)

Wolf
04.04.2018
16:00:42
может стоит просто их на ссд положить, там нет проблемы парралельного чтения

Страница 483 из 723