@clickhouse_ru

Страница 464 из 723
papa
19.03.2018
14:11:39
сортировка обычно медленней нахождения максимума

RUNET
19.03.2018
14:12:42
select * from hit where id = "x" and sign=1 ммм?

select * from hit where id = "x" order by updated_time desc

Gubaydullin
19.03.2018
14:13:31
select * from hit where id = "x" and sign=1

Google
Alexey
19.03.2018
14:13:35
W: Conflicting distribution: http://repo.yandex.ru/clickhouse/deb/stable main/ Release (expected main/ but got clickhouse stable)
Говорят, что ещё что-то поправили. Посмотрите, не исчез этот Warning?

Gubaydullin
19.03.2018
14:13:39
такой запрос может парочку записей вернуть

RUNET
19.03.2018
14:18:51
Версия кх ?

Всем привет. Подскажите как бороться с такой багой: При использовании LIMIT N BY ... не дает использовать агрегацию на уровне выше. Пример: SELECT count() FROM (SELECT parent_id, count() as c, id, date FROM example WHERE date between today()-30 and today() GROUP BY id, parent_id, date ORDER BY date, parent_id, count() desc LIMIT 10 BY date, parent_id ) При этом, если заменить count() на *, то все работает. Ошибка: "Code: 10, e.displayText() = DB::Exception: Not found column date in block. There are only columns: parent_id, e.what() = DB::Exception"

Dima
19.03.2018
14:23:49
1.1.54245

RUNET
19.03.2018
14:27:26
надо обновиться, поправили в одной из последних версий.

1.1.54245

Dima
19.03.2018
14:28:16
Спасибо

Nick
19.03.2018
17:08:50
Подскажите пожалуйста в какой версии появился mysql join ?

Alex
19.03.2018
17:12:14
Если речь про движок таблиц MySQL, то в версии 54337: https://github.com/yandex/ClickHouse/blob/master/CHANGELOG_RU.md#%D0%9D%D0%BE%D0%B2%D1%8B%D0%B5-%D0%B2%D0%BE%D0%B7%D0%BC%D0%BE%D0%B6%D0%BD%D0%BE%D1%81%D1%82%D0%B8-2

Кстати, добавили changelog для версии 54370: https://github.com/yandex/ClickHouse/blob/master/CHANGELOG_RU.md#clickhouse-1154370-release-candidate-2018-03-16

Артемий
19.03.2018
17:24:28
Поясните, пожалуйста, что имеется ввиду: >Добавлена возможность создавать ALIAS-ы для множеств

nikita
19.03.2018
17:26:44
/stat@combot

Google
Combot
19.03.2018
17:26:44
combot.org/chat/-1001080295593

Gubaydullin
19.03.2018
17:30:35
/stat@combot

Combot
19.03.2018
17:30:35
combot.org/chat/-1001080295593

Alex
19.03.2018
17:39:14
WITH (1, 2, 3) AS set SELECT number IN set FROM system.numbers LIMIT 10

Артемий
19.03.2018
17:40:14
WITH (1, 2, 3) AS set SELECT number IN set FROM system.numbers LIMIT 10
Здорово! Этого сильно не хватало.

Pavel
19.03.2018
17:46:27
а что преключилось с официальными репами и почему имена путей резко поменялись? ?

W: Failed to fetch http://repo.yandex.ru/clickhouse/trusty/dists/stable/main/binary-amd64/Packages 404 Not Found [IP: 213.180.204.183 80] E: Some index files failed to download. They have been ignored, or old ones used instead.

Pavel
19.03.2018
17:48:20
а где я могу прочитать про это?

и что делать с теми у кого это забито в sources.list ?

V
19.03.2018
18:01:18
В самом верху прилепленное сообщение. sources.list придется обновить

Pavel
19.03.2018
18:02:38
вижу ?

Roman
19.03.2018
18:09:39
/stat@combot

Combot
19.03.2018
18:09:42
combot.org/chat/-1001080295593

Roman
19.03.2018
18:09:48
/stat@combot

Combot
19.03.2018
18:09:48
combot.org/chat/-1001080295593

sha-bang
19.03.2018
19:10:00
Приветствую

не подскажете как вот такую ошибку пофиксить

DB::Exception: Cannot allocate block number in ZooKeeper: zkutil::KeeperException: connection loss.

Google
Andrew
19.03.2018
20:53:51
/stat@combot

Combot
19.03.2018
20:53:52
combot.org/chat/-1001080295593

A
19.03.2018
21:59:40
/stat@combot

Combot
19.03.2018
21:59:41
combot.org/chat/-1001080295593

Nick
19.03.2018
22:25:26
Подскажите пожалуйста такой момент. Есть движки CollapsingMergeTree и ReplacingMergeTree в каждой из них должно быть служебное поле (sign и ver соответственно). Эти значение нужно вручную вставлять? Или clickhouse каким-то хитрым образом расчехляет где данные старше ?

если вручную не вставлять, там нули образуются. Допустим если это ReplacingMergeTree то version последний не узнать никак, видимо придется timestamp вставлять.

Nick
19.03.2018
22:52:12
Спасибо. А как поведет себя движок CollapsingMergeTree при одинаковых ключах и с одинаковым sign ?

Denis
20.03.2018
00:44:29
Как увидеть статистику выполнения запроса ( Processed 32.77 thousand ...), если я запрос выполняю через cat file.sql|clickhouse-client ?

запрос очень длинный (55кб) в интерактивном режиме не очень удобно. Ну или как вызвать на выполнение файл в интерактивном режиме (типа ораклового @file.sql)?

Alexey
20.03.2018
01:10:25
clickhouse-client --progress

Denis
20.03.2018
01:20:12
clickhouse-client --progress
ClickHouse client version 1.1.54292. Проматывается и затирается, и исчезает после окончания запроса.

Stanislav
20.03.2018
03:34:38
добавить 2>&1 | tee logfile

внутри logfile будет каша, из которой можно узнать полезное

Alex
20.03.2018
05:18:15
Утро доброе, есть табличка с движком mergeTree и ~32млн строк. Есть запрос такого рода SELECT a, b, c, d, e, ..., z FROM table_name WHERE city = 'city_name' AND (some_id, row_create_ts) IN ( SELECT some_id, max(row_create_ts) FROM table_name WHERE create_date > /*недалёкая дата, например '2018-18-03'*/ AND city = 'city_name' GROUP BY some_id) AND some_id in (/*перечислено около сотни строковых id*/) AND (a in (1, 2) OR b in (1, 2) OR c in (1, 2) OR d in (1, 2) OR ... z in (1, 2)) row_create_ts, some_id, city в индексах есть. Выполняется около 20 секунд, хотелось бы побыстрее :) Можно ли его как-то оптимизировать?

Артемий
20.03.2018
05:24:17
Укажите структуры таблицы. Ещё можно посмотреть стадии выполнения запроса в логе КХ и понять как из них самая долгая (это такая альтернатива EXPLAIN)
Доброе утро! Пожалуйста, прикрепите ссылку на документацию о там, как выполнять просмотр стадий выполнения запроса.

Tima
20.03.2018
05:27:52
Доброе утро! Пожалуйста, прикрепите ссылку на документацию о там, как выполнять просмотр стадий выполнения запроса.
Только если смотреть лог КХ, как-то так tail -f /var/log/clickhouse/clickhouse-server.log Путь примерный, но в нем будут писаться стадии выполнения запроса в реалтайме

Alex
20.03.2018
05:33:15
Укажите структуры таблицы. Ещё можно посмотреть стадии выполнения запроса в логе КХ и понять как из них самая долгая (это такая альтернатива EXPLAIN)
Спасибо. Увидел, что запрос перебирает практически всю таблицу. Помогло банально вынести условие по create_date и во внешний запрос

Google
Alex
20.03.2018
05:34:02
Теперь справляется за ~0.5 сек)

Артемий
20.03.2018
05:50:44
Теперь справляется за ~0.5 сек)
Кстати можно написать create_date в обоих WHERE

Alex
20.03.2018
05:51:05
дак так и сделал

LeiDruid
20.03.2018
06:47:29
добрый день! Подскажите, как корректно (и, желательно, быстро) сделать из обычной MergeTree -> ReplicatedMergeTree

Мне помнится следующий алгоритм: 1. Остановить сервер 2. Перенести файлы из /var/lib/clickhouse/data/dbname/ 3. Включить сервер 4. Дропнуть таблицу 5. Создать Replicated 6. Стопнуть сервер 7. Подсунуть обратно файлы 8. Завести сервер

Так?

Alexey
20.03.2018
06:52:13
можно наживую с detach и attach, или файлов много?

партиций

LeiDruid
20.03.2018
06:53:10
Довольно много

Alexey
20.03.2018
06:53:30
такую же таблу с ReplicatedMergeTree создать, в MergeTree detach partition, перенести файлы, и в ReplicatedMergeTree attach partition

clickhouse-client -n "detach; detach; detach; ..." :)

или -m ключ, не помню

Андрей
20.03.2018
07:18:06
Коллеги, внесите пожалуйста ясность в вопрос, представим что у нас 7Тб данных в ClickHouse, как рассчитать приемлемый объем ОЗУ? 1:1 сами понимаете - не вариант

Stanislav
20.03.2018
07:19:08
Тут, скорее, от запросов зависит...

Гаврилов
20.03.2018
08:22:33
а насколько быстро like работает в кх?

Konstantin
20.03.2018
08:24:46
Гаврилов
20.03.2018
08:26:10
у меня есть несколько полей например "автор" и "тема" мне надо если введут "иванов авария" вывести поле "иванов иван иванович" "авария на теплотрассе"

тоесть это наверно придется все слова что передадут искать во всех полях, в которых надо искать

Wolf
20.03.2018
08:27:06
Тут конечно лучше сфинкс

Ivan
20.03.2018
08:27:18
больше напоминает юзкейс elasticsearch

Google
Атата
20.03.2018
08:27:50
Гаврилов
20.03.2018
08:28:18
у нас классифицировано

но например авария на трассе, и на теплотрассе

у нас по теме в разных разделах

и поиск должен быть не полнотекстовый

тоесть могут написать "ивано авари"

или это уже перебор

слишком сложно будет

Konstantin
20.03.2018
08:30:02
select userid, max(date) from table where userid like ('%c0e-41f%') group by userid - занял 62 секунды на 13 млрд строк

Гаврилов
20.03.2018
08:46:38
а как будет справлятся кх если я вместе с циферками в кх сделаю большие текстовые поля

с json объектами

чтобы отдавать их целиком клиенту

каждый объект около 30 кб

Дмитрий
20.03.2018
08:52:29
Если не будет в эту большую колонку запросами ходить вроде like, match() - то попытается сделать то что вы хотите.

Но по вашему описанию кажется что вам лучше в elastic

Страница 464 из 723