
papa
19.03.2018
14:11:39
сортировка обычно медленней нахождения максимума

RUNET
19.03.2018
14:12:42
select * from hit where id = "x" and sign=1
ммм?
select * from hit where id = "x" order by updated_time desc

Gubaydullin
19.03.2018
14:13:31
select * from hit where id = "x" and sign=1

Google

Alexey
19.03.2018
14:13:35

Gubaydullin
19.03.2018
14:13:39
такой запрос может парочку записей вернуть

RUNET
19.03.2018
14:18:51
Версия кх ?
Всем привет.
Подскажите как бороться с такой багой:
При использовании LIMIT N BY ... не дает использовать агрегацию на уровне выше. Пример:
SELECT count()
FROM (SELECT parent_id, count() as c, id, date
FROM example
WHERE date between today()-30 and today()
GROUP BY id, parent_id, date
ORDER BY date, parent_id, count() desc
LIMIT 10 BY date, parent_id
)
При этом, если заменить count() на *, то все работает.
Ошибка: "Code: 10, e.displayText() = DB::Exception: Not found column date in block. There are only columns: parent_id, e.what() = DB::Exception"

Dima
19.03.2018
14:23:49
1.1.54245

RUNET
19.03.2018
14:27:26
надо обновиться, поправили в одной из последних версий.
1.1.54245

Dima
19.03.2018
14:28:16
Спасибо

Nick
19.03.2018
17:08:50
Подскажите пожалуйста в какой версии появился mysql join ?

Alex
19.03.2018
17:12:14
Если речь про движок таблиц MySQL, то в версии 54337: https://github.com/yandex/ClickHouse/blob/master/CHANGELOG_RU.md#%D0%9D%D0%BE%D0%B2%D1%8B%D0%B5-%D0%B2%D0%BE%D0%B7%D0%BC%D0%BE%D0%B6%D0%BD%D0%BE%D1%81%D1%82%D0%B8-2
Кстати, добавили changelog для версии 54370: https://github.com/yandex/ClickHouse/blob/master/CHANGELOG_RU.md#clickhouse-1154370-release-candidate-2018-03-16

Артемий
19.03.2018
17:24:28
Поясните, пожалуйста, что имеется ввиду:
>Добавлена возможность создавать ALIAS-ы для множеств

nikita
19.03.2018
17:26:44
/stat@combot

Google

Combot
19.03.2018
17:26:44
combot.org/chat/-1001080295593

Gubaydullin
19.03.2018
17:30:35
/stat@combot

Combot
19.03.2018
17:30:35
combot.org/chat/-1001080295593

Alex
19.03.2018
17:39:14
WITH (1, 2, 3) AS set
SELECT number IN set
FROM system.numbers
LIMIT 10

Артемий
19.03.2018
17:40:14

Pavel
19.03.2018
17:46:27
а что преключилось с официальными репами и почему имена путей резко поменялись? ?
W: Failed to fetch http://repo.yandex.ru/clickhouse/trusty/dists/stable/main/binary-amd64/Packages 404 Not Found [IP: 213.180.204.183 80]
E: Some index files failed to download. They have been ignored, or old ones used instead.

Ivan
19.03.2018
17:47:55

Pavel
19.03.2018
17:48:20
а где я могу прочитать про это?
и что делать с теми у кого это забито в sources.list ?

V
19.03.2018
18:01:18
В самом верху прилепленное сообщение. sources.list придется обновить

Pavel
19.03.2018
18:02:38
вижу ?

Roman
19.03.2018
18:09:39
/stat@combot

Combot
19.03.2018
18:09:42
combot.org/chat/-1001080295593

Roman
19.03.2018
18:09:48
/stat@combot

Combot
19.03.2018
18:09:48
combot.org/chat/-1001080295593

sha-bang
19.03.2018
19:10:00
Приветствую
не подскажете как вот такую ошибку пофиксить
DB::Exception: Cannot allocate block number in ZooKeeper: zkutil::KeeperException: connection loss.

Google

Andrew
19.03.2018
20:53:51
/stat@combot

Combot
19.03.2018
20:53:52
combot.org/chat/-1001080295593

A
19.03.2018
21:59:40
/stat@combot

Combot
19.03.2018
21:59:41
combot.org/chat/-1001080295593

Nick
19.03.2018
22:25:26
Подскажите пожалуйста такой момент. Есть движки CollapsingMergeTree и ReplacingMergeTree
в каждой из них должно быть служебное поле (sign и ver соответственно). Эти значение нужно вручную вставлять? Или clickhouse каким-то хитрым образом расчехляет где данные старше ?
если вручную не вставлять, там нули образуются. Допустим если это ReplacingMergeTree то version последний не узнать никак, видимо придется timestamp вставлять.

Vladimir
19.03.2018
22:49:55

Nick
19.03.2018
22:52:12
Спасибо. А как поведет себя движок CollapsingMergeTree при одинаковых ключах и с одинаковым sign ?

Denis
20.03.2018
00:44:29
Как увидеть статистику выполнения запроса ( Processed 32.77 thousand ...), если я запрос выполняю через cat file.sql|clickhouse-client ?
запрос очень длинный (55кб) в интерактивном режиме не очень удобно. Ну или как вызвать на выполнение файл в интерактивном режиме (типа ораклового @file.sql)?

Alexey
20.03.2018
01:10:25
clickhouse-client --progress

Denis
20.03.2018
01:20:12

Stanislav
20.03.2018
03:34:38
добавить 2>&1 | tee logfile
внутри logfile будет каша, из которой можно узнать полезное

Alex
20.03.2018
05:18:15
Утро доброе, есть табличка с движком mergeTree и ~32млн строк.
Есть запрос такого рода
SELECT a, b, c, d, e, ..., z
FROM table_name
WHERE city = 'city_name'
AND (some_id, row_create_ts) IN (
SELECT some_id, max(row_create_ts)
FROM table_name
WHERE create_date > /*недалёкая дата, например '2018-18-03'*/
AND city = 'city_name'
GROUP BY some_id)
AND some_id in (/*перечислено около сотни строковых id*/)
AND (a in (1, 2) OR
b in (1, 2) OR
c in (1, 2) OR
d in (1, 2) OR
...
z in (1, 2))
row_create_ts, some_id, city в индексах есть.
Выполняется около 20 секунд, хотелось бы побыстрее :)
Можно ли его как-то оптимизировать?


Tima
20.03.2018
05:22:58
Утро доброе, есть табличка с движком mergeTree и ~32млн строк.
Есть запрос такого рода
SELECT a, b, c, d, e, ..., z
FROM table_name
WHERE city = 'city_name'
AND (some_id, row_create_ts) IN (
SELECT some_id, max(row_create_ts)
FROM table_name
WHERE create_date > /*недалёкая дата, например '2018-18-03'*/
AND city = 'city_name'
GROUP BY some_id)
AND some_id in (/*перечислено около сотни строковых id*/)
AND (a in (1, 2) OR
b in (1, 2) OR
c in (1, 2) OR
d in (1, 2) OR
...
z in (1, 2))
row_create_ts, some_id, city в индексах есть.
Выполняется около 20 секунд, хотелось бы побыстрее :)
Можно ли его как-то оптимизировать?
Укажите структуры таблицы. Ещё можно посмотреть стадии выполнения запроса в логе КХ и понять как из них самая долгая (это такая альтернатива EXPLAIN)

Артемий
20.03.2018
05:24:17

Tima
20.03.2018
05:27:52

Артемий
20.03.2018
05:28:16

Alex
20.03.2018
05:33:15

Google

Alex
20.03.2018
05:34:02
Теперь справляется за ~0.5 сек)

Артемий
20.03.2018
05:50:44

Alex
20.03.2018
05:51:05
дак так и сделал

LeiDruid
20.03.2018
06:47:29
добрый день!
Подскажите, как корректно (и, желательно, быстро) сделать из обычной MergeTree -> ReplicatedMergeTree
Мне помнится следующий алгоритм:
1. Остановить сервер
2. Перенести файлы из /var/lib/clickhouse/data/dbname/
3. Включить сервер
4. Дропнуть таблицу
5. Создать Replicated
6. Стопнуть сервер
7. Подсунуть обратно файлы
8. Завести сервер
Так?

Alexey
20.03.2018
06:52:13
можно наживую с detach и attach, или файлов много?
партиций

LeiDruid
20.03.2018
06:53:10
Довольно много

Alexey
20.03.2018
06:53:30
такую же таблу с ReplicatedMergeTree создать, в MergeTree detach partition, перенести файлы, и в ReplicatedMergeTree attach partition
clickhouse-client -n "detach; detach; detach; ..." :)
или -m ключ, не помню

Андрей
20.03.2018
07:18:06
Коллеги, внесите пожалуйста ясность в вопрос, представим что у нас 7Тб данных в ClickHouse, как рассчитать приемлемый объем ОЗУ? 1:1 сами понимаете - не вариант

Stanislav
20.03.2018
07:19:08
Тут, скорее, от запросов зависит...

Гаврилов
20.03.2018
08:22:33
а насколько быстро like работает в кх?

Konstantin
20.03.2018
08:24:46

Гаврилов
20.03.2018
08:26:10
у меня есть несколько полей например "автор" и "тема" мне надо если введут "иванов авария" вывести поле "иванов иван иванович" "авария на теплотрассе"
тоесть это наверно придется все слова что передадут искать во всех полях, в которых надо искать

Wolf
20.03.2018
08:27:06
Тут конечно лучше сфинкс

Ivan
20.03.2018
08:27:18
больше напоминает юзкейс elasticsearch

Google

Атата
20.03.2018
08:27:50

Гаврилов
20.03.2018
08:28:18
у нас классифицировано
но например авария на трассе, и на теплотрассе
у нас по теме в разных разделах
и поиск должен быть не полнотекстовый
тоесть могут написать "ивано авари"
или это уже перебор
слишком сложно будет

Konstantin
20.03.2018
08:30:02
select userid, max(date) from table where userid like ('%c0e-41f%') group by userid - занял 62 секунды на 13 млрд строк

Гаврилов
20.03.2018
08:46:38
а как будет справлятся кх если я вместе с циферками в кх сделаю большие текстовые поля
с json объектами
чтобы отдавать их целиком клиенту
каждый объект около 30 кб

Дмитрий
20.03.2018
08:52:29
Если не будет в эту большую колонку запросами ходить вроде like, match() - то попытается сделать то что вы хотите.
Но по вашему описанию кажется что вам лучше в elastic