@clickhouse_ru

Страница 128 из 723
Vladimir
22.04.2017
21:39:09
да, спасибо, то что нужно. Еще выполняется чуть быстрее чем оригинальный запрос )

prll
22.04.2017
21:40:08
Еще вопрос: "This is not a cross-platform system. It requires Linux Ubuntu Precise (12.04) or newer, x86_64 architecture with SSE 4.2 instruction set." - т.е. на Центось КликХаус не поставить?
На данный момент можно собрать без особых проблем на 64 бит linux, freebsd, macos системе с clang 3.8 или gcc 6+ , из необходимых библиотек в системе остался только openssl , без всего остального , sse не обязателен. но возможно некоторые фичи или скорость в некоторых местах исчезнет-станет хуже

Mike
23.04.2017
10:30:07
Кажется решение проблемы с внешней батчилкой появляется в самом КХ :) https://github.com/yandex/ClickHouse/pull/694/files#diff-c3a64648d245502763b6d88963a3086eR1

Vladimir
23.04.2017
10:31:59
Я с ходу не понял что такое trivial buffer

Google
Mike
23.04.2017
10:34:30
По описанию — оно самое. +/** Stores incoming blocks until some thresholds are exceeded, then sends + * them to the table it looks into in the same order they came to the buffer. + * + * Thresolds are checked during insert and in background thread (to control + * time thresholds). + * If inserted block exceedes max limits, buffer is flushed and then the incoming + * block is appended to buffer. + * + * Destroying TrivialBuffer or shutting down lead to the buffer flushing. + * The data in the buffer is not replicated, logged or stored. After hard reset of the + * server, the data is lost. + */

Виктор
23.04.2017
10:47:08
Ну там почти, да.

Это нам самим в Метрике понадобилось

Разработчик Метрики

Vladimir
23.04.2017
10:51:22
Ну там почти, да.
А в чем разница с buffer?

Alexander Artemenko
23.04.2017
11:03:55
Всем привет!

Виктор
23.04.2017
11:08:56
В буферных таблицах нам сейчас не хватает: - дедупликации между репликами - детерминированности поведения

Это и планируется добавить

Pavel
23.04.2017
12:24:25
А делать выборки можно будет из этого буфера?

Mike
23.04.2017
12:37:55
Еще бы можно было в этот новый buffer вставлять десятки тысяч строк в секунду без снижения производительности всей системы — вообще красота была бы :)

Roman
23.04.2017
12:48:18
Виктор
23.04.2017
12:48:56
Выборки можно

WAL не планируем

Google
Pavel
23.04.2017
13:08:31
А запуск отдельным процессом, чтобы можно было четко понять, от кого нагрузка?

Вот про сотни тысяч вставок - именно мой кейс ;)

Мб будет вариант с embedded либой в софт, который генерит данные?

Igor
23.04.2017
13:09:36
А запуск отдельным процессом, чтобы можно было четко понять, от кого нагрузка?
а юзеры и/или show processlist эту проблему не решают? там и айпишник, и юзерагент логируются..

Pavel
23.04.2017
13:21:29
Это дааа, но изоляция на уровне системы приятнее

Vladislav
23.04.2017
18:25:18
Всем привет. Подскажите, плиз, возможно ли как-то google sheets подключить к КХ? Может через odbc?

Igor
23.04.2017
18:28:30
очень вряд ли. можно экспортировать в CSV/TSV и загрузить чем-нибудь в КХ

можно подключить как внешний словарь, но промежуточный скрипт, конвертирующий данные из гуглотаблицы, все равно понадобится

Vladimir
23.04.2017
19:37:36
Всем привет. Подскажите, плиз, возможно ли как-то google sheets подключить к КХ? Может через odbc?
Можно посмотреть в сторону wso2 Возможно через множества ухищрений и можно как то подключить.

Dennis
23.04.2017
19:49:11
Думаю, что в качестве BI инструмента

Vladislav
23.04.2017
19:49:21
Хотим фин отчеты красивые делать в гугл докс, на основе данных из разных мест, в том числе КХ.

Andrey
23.04.2017
19:51:48
Я просто не сильно профи в инструментах гугла.

Igor
23.04.2017
19:52:31
Ааа, вам наоборот забирать данные из кх в гуглдокс? Пардон тогда

Vladislav
23.04.2017
19:52:48
ага

Andrey
23.04.2017
19:52:54
Но самое первое что приходит в голову это выгрузка результатов и уже обработка в гугле.

Т.е. не через прямой коннект.

Vladislav
23.04.2017
19:53:36
Нашел костыльное решение - https://support.google.com/docs/answer/3093335

Не нравится, что SQL запрос придется писать в урле

Google
Dennis
23.04.2017
19:55:49
По идее, через CSV-файлы можно импортировать

Vladimir
23.04.2017
23:59:14
вопрос - КХ не может забаговаться со словарями? Пытаюсь постгрес подключить. До этого все ок было. Несколько раз создал-редактировал файл + перезапуск сервера. Теперь в таблице по словарям даже ошибки нет подключения. SELECT * FROM system.dictionaries Пишет только старый словарь. Нового нет. Хотя сам файл присутствует

prll
24.04.2017
00:13:00
может неправильно назван файл нового словаря? в конфиге по умолчанию так <dictionaries_config>*_dictionary.xml</dictionaries_config>

Vladimir
24.04.2017
00:15:13
да вот сверяюсь. ? не надо было мне в 3 часа ночи искать суслика в темной комнате.))

а в словаре внешним колонка date должна быть?

Нашел проблему. При создании таблицы в БД с casesensitive именем - таблица создается like "TableName". Если в консольке case в low то тот же pgadmin создает в кавычках. Редко им пользуюсь. Буду еще реже)))

Aloneibreak
24.04.2017
08:54:42
вопрос: не будет ли проблема если у одного шарда реплики в разных датацентрах?

Vasiliy
24.04.2017
09:00:48
@aloneibreak судя по доке и ответам в этом чатике - реплики как раз и планируется размещать в разных ДЦ - стандартная схема работы.

Aloneibreak
24.04.2017
09:02:31
понял, спасибо

Vasiliy
24.04.2017
09:09:29
Vitaliy очень интересно, возможно вы уже планировали работу по интеграции с CH? Или пока просто общественное мнение интересует?)

Vitaliy
24.04.2017
09:13:06
@vasiliyozerov хороший человек уже написал ADO.NET коннектор КХ ( https://github.com/killwort/ClickHouse-Net ) который поддерживает натив протокол к компрессией. На днях я проверил возможность скомпилить под .нет кор и все получилось, поэтому техническая возможность тащить данные уже есть.

Vasiliy
24.04.2017
09:13:55
Vitaliy спасибо огромное - попробую собрать у себя!

Vitaliy
24.04.2017
09:13:56
@vasiliyozerov так как КХ умеет SELECT FROM (SELECT) и GROUP BY по большому счету разницы никакой нет по сравнению с каким нибудь mysql.

все КХ-специфические SQL функции будут во внутреннем запросе, по идее. Одно не ясно, нужно ли это вот такой пивотобилдер кому-то )))

Vasiliy
24.04.2017
09:19:08
Я думаю не просто нужно, а необходимо. Компании сейчас готовы за такие решения деньги платить, поскольку на текущий момент кроме собственных кастомных дашбоардов поверх кликхауса особо ничего и нет. Только если экспортить все данных из КХ и лить в какую-нить вертику или что-то еще, с чем работают всякие табло и пентахи

Vitaliy
24.04.2017
09:24:37
@vasiliyozerov как только кто-то захочет провести proof-of-concept стучитесь в личку ) в принципе, кроме варианта embedded где все таки надо минимальная интеграция на фронте (вставить же этот билдер куда-то надо, дописать сохрание-загрузку куда-то в свою базу) будет и онлайн версия. Она сейчас в процессе, в частном порядке демо могу показать.

Vasiliy
24.04.2017
09:25:33
Vitaliy я готов, сейчас постучусь :) Спасибо!

Maksim
24.04.2017
10:36:33
Скажите graphite и кх уже скрестили ?

Maksim
24.04.2017
10:40:29
^
ок пасиб

Google
Vladimir
24.04.2017
10:54:53
Скажите graphite и кх уже скрестили ?
Или lomik/graphite-clickhouse и carbon-clickhouse

Kem
24.04.2017
11:06:02
Vladimir
24.04.2017
11:31:00
А для prometheus?

Igor
24.04.2017
11:31:49
https://github.com/f1yegor/clickhouse_exporter - это, возможно?

Vladimir
24.04.2017
11:32:28
О, прикольно

Спасибо!

Aloneibreak
24.04.2017
12:03:18
а такой вопрос: reality check, так сказать что бы нормально шардить и реплицировать данные нужно поверх таблицы MergeTree создать Distributed и поверх уже вторых создавать Merge таблицу?

Andrey
24.04.2017
12:06:25
А зачем поверх создавать еще Merge?

там же настраиваются реплики шардов

Aloneibreak
24.04.2017
12:08:51
что бы запросы делать в нее, не заморачиваясь какая Distributed таблица мне нужна

у нас данные складываются в таблицы по пол года, что бы иметь возможность удалять неактуальные данные

Igor
24.04.2017
12:09:38
неактуальные данные можно detach/drop partition'ом убирать

Aloneibreak
24.04.2017
12:11:26
detach же всю таблицу как удаляет

Igor
24.04.2017
12:13:58
Да не, партишены помесячно https://clickhouse.yandex/reference_ru.html#Манипуляции%20с%20партициями%20и%20кусками

Aloneibreak
24.04.2017
12:14:14
а я понял. спасибо. проглядел в документации

Pavel
24.04.2017
12:14:53
магия это, а нельзя ли как-то изолировать данный функционал, чтобы без лазания по папкам можно было это сделать, например, из крона?

Igor
24.04.2017
12:15:37
какой функционал?) "без лазания по папкам" и "из крона" – это прям напрашивается баш-скрипт какой-нибудь или мне кажется?)

Aloneibreak
24.04.2017
12:16:53
и еще вопрос: создание таблиц и манипуляции с ними - нужно заходить на каждую машину в кластере и делать это руками или я проглядел что-то в документации?

Pavel
24.04.2017
12:18:38
я про функционал работы с партишенами, в гайде много всяких "смотрим имя папки"

хочется это делать в SQL синтаксисе CH

Google
Vladimir
24.04.2017
12:19:35
Вопрос по словарям. в hashed ключи только в блоке <id></id> или же можно типа string как в комплексных. <key></key> Просто в той же доке написано что комплексные aka hashed layot. Но в комплексных ключ любого типа. А в hashed?

Alex
24.04.2017
12:37:53
Для числового ключа layout hashed, для составного complex_key_hashed

Vladimir
24.04.2017
12:51:19
Для числового ключа layout hashed, для составного complex_key_hashed
то есть для того чтобы сделать обычный хэш с одним ключом не числовым нужно делать комплексный хеш?)

Alex
24.04.2017
12:51:53
Да

Vladimir
24.04.2017
16:18:01
Добрый день! Подскажите, пожалуйста, есть ли какой-нибудь нормальный способ удалить (пересчитать) в КХ партицию за 1 день (не месяц)?

Или, быть может, настроить партиционирование не по месяцам, а по дням в CollapsingMergeTree

Кажется, пересчёт сбойных данных за день или несколько — это довольно частый кейс должен быть

Andrey
24.04.2017
16:43:24
Или, быть может, настроить партиционирование не по месяцам, а по дням в CollapsingMergeTree
Партиционирование пока только по месяцам. Но я слышал о планах это изменить.

Igor
24.04.2017
16:44:51
можно залить во временную таблицу данные за месяц кроме нужного дня, грохнуть партицию в оригинальной таблице и залить туда данные из временной

Vladimir
24.04.2017
16:55:30
Ну тоже решение, но долговато...

Страница 128 из 723