
Stas
04.06.2018
10:25:48
гопсода, я туплю, как сделать Merge таблицу корректно? в мануале нет примера:
пытаюсь так
CREATE TABLE db.table1 AS db.table1 ENGINE = Merge(db, '^.*prefix.*$');
хм, он хотел что бы ему типы указали, хотя в документации написано, что типы можно не указывать.

Evgeny
04.06.2018
11:06:57

Sergey
04.06.2018
12:21:02
В КХЛ сейчас работает Update и Delete? В Roadmap заявлено на 1 квартал этого года

Google

Wolf
04.06.2018
12:25:37
нет

Kirill
04.06.2018
12:29:32
https://repo.yandex.ru/clickhouse/ , кстати, там еще rpm появились

Павел Максимов
04.06.2018
14:47:30
Подскажите, как исправить ошибку:
Code: 386, e.displayText() = DB::Exception: There is no supertype for types UInt64, String because some of them are String/FixedString and some of them are not, e.what() = DB::Exception
Появляется при слиянии двух запросов через UNION ALL. По отдельности они работают.

Mariya
04.06.2018
14:49:04

Павел Максимов
04.06.2018
14:49:35

?
04.06.2018
15:07:13
а когда в логах много-много подобных сообщений
Removing part from filesystem all_154156_185096_19794
это штатная ситуация?
а то пришлось его перегрузить форсировано, теперь не могу дождаться пока словари обновятся

Kirill
04.06.2018
15:17:39

?
04.06.2018
15:18:03
вот он вроде закончил это делать. данные в сохранности?

Kirill
04.06.2018
15:18:54

?
04.06.2018
15:19:29
не совем понял вопрос. смотрю логи в clickhouse-server.log

Kirill
04.06.2018
15:20:13
У вас у логов режим DEBUG, он туда все пишет.

Google

?
04.06.2018
15:22:28
<logger>
<level>trace</level>

Kirill
04.06.2018
15:22:54

?
04.06.2018
15:23:02
ага, понял, спасибо

Anton
04.06.2018
15:23:08
это ещё более подробно, читайте логи
ищите ошибки
КХ просто так ничего не ломает, как правило ?

Kirill
04.06.2018
15:24:05
Надо в лог дописать что это старые куски, чтоб не пугаться

?
04.06.2018
15:24:33
ну я там поменял структуру большой таблицы к которой был привязан словарь, он захлебнулся при релоаде, когда форсированно закрыл – началось такое, но уже выправилось

Anton
04.06.2018
15:24:39
для старых кусков он же пишет "removing them from zk" дополнительно

Kirill
04.06.2018
15:28:53

Gubaydullin
04.06.2018
20:07:56
Добрый вечер.
Пытаюсь прокинуть в подзапрос данные основного запроса, выдается ошибка
DB::Exception: Unknown identifier: hit.created_date
SELECT
sum(CASE WHEN hit.preland_reached_at IS NOT NULL THEN sign * 1 ELSE 0 END) AS preland_hits,
toDate(created_time, 'UTC') AS days,
(select sum(CASE WHEN lead.is_valid = 1 THEN sign * 1 ELSE 0 END) FROM lead WHERE lead.created_date = hit.created_date) AS leads_valid
FROM hit
WHERE toDate(created_time, 'UTC') BETWEEN '2013-01-01' AND '2013-01-02'
GROUP BY days
HAVING SUM(sign) > 0
ORDER BY days DESC
LIMIT 50
FORMAT JSON;
в чем может быть ошибка?

Александр
04.06.2018
20:37:08
Такие штуки в кх не работают :)

Gubaydullin
04.06.2018
20:38:12
нельзя прокинуть в подзапрос таблицу главного запроса?

Александр
04.06.2018
20:59:19

Denis
04.06.2018
23:32:04

Nik
05.06.2018
07:43:06
Обнаружил проблему в clickhouse-server:1.1.54383, если удалить таблицу в которую пишет материализованная View считывающая с таблицы настроенную на Kafka, то сервер перестает обрабатывать входящие запросы на получение данных. В логах сервер постоянно пишет что DB.Kafka не может записать в таблицу которой нет. Помогает только ручное удаление материализованного View в каталоге метаданных и перезапуск clickhouse-server. В ранних версиях КХ такой проблемы небыло.

Константин
05.06.2018
07:48:22
Добрый день! Народ, скажите, использовал ли кто-то https://github.com/Infinidat/infi.clickhouse_fdw ?

Stas
05.06.2018
08:48:40
chproxy режет параметр поднятия памяти, никто не сталкивался? как жить?

Roman
05.06.2018
08:54:00

Stas
05.06.2018
08:54:29
жалко что в конфиге нельзя прописать тогда...

Google

Roman
05.06.2018
08:58:46
Передачей параметров можно поднять и другие лимиты, вроде execution_time, обойдя таким образом предустановленные настройки и, возможно, повлияв на работоспособность КХ.
КХПрокси должен стоять между КХ и пользователем (графаной, приложением), а значит от них не ожидается передачи дополнительных параметров.
Т.е. случай, когда Вам нужно поднять лимит на память - исключительный и не должен быть частью работы Вашего приложения.

Aliaksandr
05.06.2018
09:00:30
Может, добавить дополнительгый параметр на уровне пользователей chproxy, разрешающий проксирование произвольных аргументов в кликхаус?
Наподобие hack_me_please
Т.к. это часто встречающийся вопрос от пользователей chproxy

M
05.06.2018
09:02:14

Roman
05.06.2018
09:22:26
Наподобие hack_me_please
На мой взгляд, решение задачи путем установки параметра с названием "hack_me" может быть только временным или с целью отладки. Я понимаю, что "задачей" в данном случае является искуственное ограничение прокси, которое было добавлено только по соображениям авторов. Но все же, если приложение/пользователь требует передачи параметров меняющих настройки КХ, то более правильным будет создать для него отдельный профиль с нужной конфигурацией.

Triborg
05.06.2018
09:25:37
Всем привет! У меня есть AggregatingMergeTree (3мрлд записей), там хранятся агрегаты по дням. Например там статистика по количеству показов видео, агрегированная по дням. Мне нужно в Postgres, на основании этого агрегата, сохранить для каждого видео общее количество его показов, за всё время. Как это сделать максимально быстро?

Aliaksandr
05.06.2018
09:56:32

Константин
05.06.2018
10:48:10

Александр
05.06.2018
11:11:30

Wolf
05.06.2018
11:15:21
в этом и прелесть опенсоурса , взял и подпилил сам

Александр
05.06.2018
11:22:33
Я не про то, что люди не могут дописать, а про то, что сами создают ограничения и сами потом с ними мучаются. Зачеееем? :)

Wolf
05.06.2018
11:25:04
ну они написали для себя , у них нет таких проблем и ограничений
или это ограничение им во спасение

Дмитрий
05.06.2018
12:01:54
Добрый день, подскажите пожалуйста стоит ли менять рамер партиции. Обьем данных 1ард в месяц, 40-50 лимонов в день. Запросы в базу в основном недельные, на 2 месте по частоте однодневные и потом месячные. Сейчас есть возможность рефакторнуть создание таблицы. Но протестить такое самому довольно сложно. Будет ли профит. Если я уменьшу размер до недельной или дневной?

Denis
05.06.2018
12:43:34


Nik
05.06.2018
12:43:51
Повторю еще раз - Обнаружил проблему в clickhouse-server:1.1.54383, если удалить таблицу в которую пишет материализованная View считывающая с таблицы настроенную на Kafka, то сервер перестает обрабатывать входящие запросы на получение данных. В логах сервер постоянно пишет что DB.Kafka не может записать в таблицу которой нет. Помогает только ручное удаление материализованного View в каталоге метаданных и перезапуск clickhouse-server. В ранних версиях КХ такой проблемы небыло. Стек ошибки:
2018.06.05 12:36:00.182085 [ 12 ] <Error> void DB::StorageKafka::streamThread(): Code: 60, e.displayText() = DB::Exception: Table default.Test doesn't exist., e.what() = DB::Exception, Stack trace:
0. clickhouse-server(StackTrace::StackTrace()+0x16) [0x47bb506]
1. clickhouse-server(DB::Exception::Exception(std::string const&, int)+0x1f) [0x263aeff]
2. clickhouse-server(DB::Context::getTableImpl(std::string const&, std::string const&, DB::Exception*) const+0x2ef) [0x40a1c9f]
3. clickhouse-server(DB::Context::getTable(std::string const&, std::string const&) const+0x5f) [0x40a201f]
4. clickhouse-server(DB::StorageMaterializedView::write(std::shared_ptr<DB::IAST> const&, DB::Settings const&)+0x34) [0x453d314]
5. clickhouse-server(DB::PushingToViewsBlockOutputStream::PushingToViewsBlockOutputStream(std::string const&, std::string const&, std::shared_ptr<DB::IStorage> const&, DB::Context const&, std::shared_ptr<DB::IAST> const&, bool)+0x303) [0x43c7bf3]
6. clickhouse-server(DB::PushingToViewsBlockOutputStream::PushingToViewsBlockOutputStream(std::string const&, std::string const&, std::shared_ptr<DB::IStorage> const&, DB::Context const&, std::shared_ptr<DB::IAST> const&, bool)+0x557) [0x43c7e47]
7. clickhouse-server(DB::InterpreterInsertQuery::execute()+0x209) [0x40e2739]
8. clickhouse-server(DB::StorageKafka::streamToViews()+0x642) [0x4531952]
9. clickhouse-server(DB::StorageKafka::streamThread()+0x146) [0x4531e46]
10. clickhouse-server() [0x4c3db9f]
11. /lib64/libpthread.so.0(+0x7e25) [0x7f7c492c4e25]
12. /lib64/libc.so.6(clone+0x6d) [0x7f7c48ae8bad]


Aliaksandr
05.06.2018
12:49:44

Дмитрий
05.06.2018
12:58:40
Благодарю за ответы

Google

Kirill
05.06.2018
13:33:17
Всем привет. Есть какой-нибудь способ при выборке с group by трансформировать строки в столбцы? Например, есть таблица со следующей структурой
event = money|impressions
partner_id
impressions
currency
revenue
На выходе запроса необходимо получить следующие столбцы.
partner_id
impressions
revenue_currency_USD
revenue_currency_EUR
revenue_currency_RUB
Список валют (USD,EUR...) заранее известен и фиксирован.

Mark
05.06.2018
13:35:27
привет всем. Кто пожключал к tableau clickhouse через sparksql?

Stas
05.06.2018
13:37:12

Konstantin
05.06.2018
13:43:28

Kirill
05.06.2018
13:43:56

Konstantin
05.06.2018
13:45:03

Kirill
05.06.2018
13:47:26

Stas
05.06.2018
13:48:03

Kirill
05.06.2018
13:53:08

Атата
05.06.2018
13:53:58

Stas
05.06.2018
13:54:17
Сейчас в планах поставить до этого ещё nginx+ldap
Так, что оптимальный вариант имхо - указывание параметров в конфиг chproxy...

Alexander Nairashvili
05.06.2018
13:56:37
Добрый день, почему при некоторых запросах в distributed таблицы вывод получается "рваным" по несколько строк? И почему order by частично склеивает эти куски (остается несколько сплитов)? У нас есть подозрение что в нашем запросе runningdifference ломается из-за этих разрывов, но пока не можем понять что происходит.

Kirill
05.06.2018
13:58:31

Alexander Nairashvili
05.06.2018
14:00:04
split каждые 65536 срок

Alexander
05.06.2018
14:05:05

Aliaksandr
05.06.2018
14:16:51

Google

Aliaksandr
05.06.2018
14:21:56
Только нужно продумать, как это сделать, чтобы было легко конфигурировать. Может, как с сетями и кэшами - указываешь именованные наборы парвметров в одном месте, а потом на них ссылаешься из конфига юзера?

Kirill
05.06.2018
14:57:29
Добрый день! Я правильно понимаю, что из-за
ENTRYPOINT exec /usr/bin/clickhouse-server --config=${CLICKHOUSE_CONFIG}
в yandex/clickhouse-server Dockerfile при использовании его в docker-compose невозможно выполнить command, т.к. шелл уже занят процессом после запуска червера ? Кто-то решал подобную проблему ?

Алексей
05.06.2018
15:04:40
если хочется просто шелл запустить — docker run -it --rm --entrypoint bash yandex/clickhouse-server

Kirill
05.06.2018
15:06:30
Хочется на запуске автоматически прокидывать словари) Спасибо

Алексей
05.06.2018
15:07:26
это удобней наверно через docker-compose делать

Kirill
05.06.2018
15:08:05

Roman
05.06.2018
15:16:27

Kirill
05.06.2018
15:19:58
* клик не крутится в докере, это только на машинке для разработки / прогона тестов сервиса

Kirill
05.06.2018
16:33:51
У вас клик наружу торчит?)
Нет, у нас в КХ "ручками" только аналитик ходит, обычные пользователи через API. Соответственно есть 3-и профиля: api, worker (тот кто пишет и пересчитывает стату) и analytics. У всех разные лимиты.

Alexander Nairashvili
05.06.2018
16:34:26
set max_block_size побольше
Спасибо, помогло, но в нашей выборке, чтобы runningdifference не сломался надо max_block_size поднимать до 1mln+? в память мы вроде не упираемся, но интересуют последствия такой настройки.
Есть ли возможность(хак) во внешнем селекте завершать блок на нужной строке(контролировать в какой строке завершать блок, например по where), чтобы runningdifference не ломался?

Kirill
05.06.2018
16:37:58

Alexander Nairashvili
05.06.2018
16:44:11