
Alexey
04.05.2018
22:03:17

Denis
04.05.2018
22:08:42

Alexey
04.05.2018
22:09:46

Google

Dmitry
04.05.2018
22:13:01

Alexey
04.05.2018
22:16:07
Если по логу непонятно на какой именно адрес ругается, запустите с помощью sudo -u clickhouse strace -f -e trace=network /usr/bin/clickhouse-server --config=/etc/clickhouse-server/config.xml.

Dmitry
04.05.2018
22:16:35

Никита
05.05.2018
10:54:34
Добрый день. Есть ли в ClickHouse какие-либо функции для работы с геоданными?
У меня сейчас задача выбрать из базы количество точек внутри полигона. Понятно, что окружность или прямоугольник обработать очень просто, но есть ли возможность что-то сделать с рандомным полигоном?

Alex
05.05.2018
10:58:28
https://github.com/yandex/ClickHouse/blob/61e5b0476f9a990952bea046c3415405d8d43a2e/dbms/tests/queries/0_stateless/00500_point_in_polygon.sql

Никита
05.05.2018
11:01:25
Ооо, спасибо.

Mike
05.05.2018
11:20:40
Всем привет! Есть таблица с метриками, которые собираются очень часто, но нужны значения только изменившиеся, промежуточных дубликатов будет 99% и не хочется их хранить. Также, не хочется перед записью точки данных делать select для проверки, не изменилось ли. Подскажите, плиз, подходит ли Relacing Merge Tree для этой дадачи?
айди | дата-время | количество
1 | 2018-01-01 01:00:00 | 100
1 | 2018-01-01 01:00:01 | 100
1 | 2018-01-01 01:00:02 | 100
1 | 2018-01-01 01:00:03 | 101
V
айди | дата-время | количество
1 | 2018-01-01 01:00:00 | 100
1 | 2018-01-01 01:00:03 | 101


Kirill
05.05.2018
15:07:29
немного мимо, технология там плюс-минус одна, но уровень контейнеризации разный
нет там разного уровня, просто в докер все достаточно криво реализовано. Если скрестить LXC и Docker, взяв от докера его удобства в виде API, registry и прочего получилось бы очень ничего, это и пытаются сделать в LXD, но, получается не то чтобы очень в виду того что делают это только 2-а человека и, в виду того что они в теме и ко многим вещам просто привыкли и они им кажутся очевидными, оно получается немного топорно для людей со стороны. Но, 3-я версия совсем неплоха + она LTS, я думаю что оно еще выстрелит.


LeiDruid
05.05.2018
15:37:26
нет там разного уровня, просто в докер все достаточно криво реализовано. Если скрестить LXC и Docker, взяв от докера его удобства в виде API, registry и прочего получилось бы очень ничего, это и пытаются сделать в LXD, но, получается не то чтобы очень в виду того что делают это только 2-а человека и, в виду того что они в теме и ко многим вещам просто привыкли и они им кажутся очевидными, оно получается немного топорно для людей со стороны. Но, 3-я версия совсем неплоха + она LTS, я думаю что оно еще выстрелит.
Я пока на 2.21

s3rj1k
05.05.2018
15:44:48
Я там кстати немного в ишью понадоедал розрабам.
Там есть примеры полезные если кому нужно :)


LeiDruid
05.05.2018
15:52:01
нет там разного уровня, просто в докер все достаточно криво реализовано. Если скрестить LXC и Docker, взяв от докера его удобства в виде API, registry и прочего получилось бы очень ничего, это и пытаются сделать в LXD, но, получается не то чтобы очень в виду того что делают это только 2-а человека и, в виду того что они в теме и ко многим вещам просто привыкли и они им кажутся очевидными, оно получается немного топорно для людей со стороны. Но, 3-я версия совсем неплоха + она LTS, я думаю что оно еще выстрелит.
Я что-то не смог найти чейнджлог. Не в курсе, где посмотреть?

Google

Kirill
05.05.2018
15:55:52

LeiDruid
05.05.2018
15:57:34
Спасибо

Kirill
05.05.2018
15:57:41

s3rj1k
05.05.2018
16:07:10

Alexey
05.05.2018
16:11:00


Vasilij
07.05.2018
07:24:07
Привет всем! Как то тут пусто, неужели телеграм таки заблокировали? Или просто выходные?
Столкнулся с особенностями кворумной записи.
1. Пишем в консольном клиенте строчку в таблицу ReplicatedMergeTree (3 реплики), кворумная запись отключена. Затем через HTTP читаем из таблицы, выставив настройки select_sequential_consistency=1 - записи нет. Долго нет, минут 15. Возник вопрос - насколько долго можно жеё ждать? И дождемся ли? При select_sequential_consistency=0 запись видна на всех репликах, появляется в течении секунд. В процессе в базу активно пишутся данные с выставленной настройкой insert_quorum=3.
Если записать те же данные в режиме кворума - всек ок, запись появляеся сразу же. Появилось ощущение, что при использовании select_sequential_consistency вся запись должна быть исключительно кворумной...
2. Пишем данные в базу с настройкой insert_quorum=3 в один поток. Запускаем параллельно второй такой же поток, через некоторое время один из них вываливается с эксепшном, общий смысл "Другая кворумная запись только что стартовала". Получается, что кворумные записи в принципе не распараллеливаются, или мы что-то делаем неправильно?


Vladimir
07.05.2018
07:28:31
> Привет всем! Как то тут пусто, неужели телеграм таки заблокировали? Или просто выходные?
просто КХ не тормозит, вот и вопросов нет ?

Alexey
07.05.2018
07:40:12
1. При включенной настройке select_sequential_consistency, из таблицы читаются данные до последнего куска, записанного с кворумом, включительно. Более новые записи - те, что были записаны без кворума, а также те, которые записываются с включенным кворумом, но когда кворум ещё не достугнут - не видны.
2. Да, получается что не распараллеливается.
От пользователей есть фич-реквест - сделать "расслабленную" кворумную запись: каждый INSERT подтверждается только когда записан с кворумом, но не обязательно на реплики, содержащие все предыдущие записи. Если так сделать, то будет распараллеливаться.

Vasilij
07.05.2018
07:55:32
Спасибо!

Michael
07.05.2018
08:13:53
Добрый день. Подскажите, можно ли поменять ключ шардирования в таблице с движком Distributed, расположенной на нескольких шардах по две реплики каждый? Если да, то что будет с чтением уже имеющихся данных?

Wolf
07.05.2018
08:15:46
ключ шардирования можно менять, ключ шардирования влияет только на то куда писать данные а не как читать
чтение останетсят точно таким же

Michael
07.05.2018
08:17:22
Спасибо.

Yuri
07.05.2018
09:28:14
Алексей (@milovidov_an), не подскажите. В текущей версии группировка по таблице CollapsingMergeTree с модификатором FINAL требует неожиданно много памяти несмотря на настройки. Видимо делает группировку полностью в памяти. Раньше в этом замечен не был. Это временные трудности, или теперь это стандартное поведение?

Дмитрий
07.05.2018
10:00:19
Бага в русской документации
Если искать PREWHERE - то ничего не находится, если разбить пробелом - то виден раздел PREWHERE
Если ввести только PREWHER то раздел находится
В английской - работает

Egor
07.05.2018
10:54:18
всем привет. какой самый быстрый способ сдампить таблицу и восстановить на другом сервере?

Stanislav
07.05.2018
10:55:44
отдетачить, скопировать файлы и потом приаттачить?

Google

Ivan
07.05.2018
10:56:54
я юзаю такой скрипт:
бэкап - select * from TableName INTO OUTFILE 'backup.chdb' format Native
рестор - cat backup.chdb |clickhouse-client —query="INSERT INTO TableName FORMAT Native"

Wolf
07.05.2018
10:57:09

Egor
07.05.2018
10:57:17
а уровнем повыше? на сервере Б уже будет идти запись в эту таблицу. Раньше пользовался "SELECT * FROM $i FORMAT Native" | INSERT INTO $i FORMAT Native. Но очень долго

Wolf
07.05.2018
10:58:00

Egor
07.05.2018
10:58:20
Реплика да.. тут была бы в тему
но нужен зоотехник, и вообще страшно

Ivan
07.05.2018
10:59:36

Stanislav
07.05.2018
10:59:57
Зачем сразу зоотехник? https://clickhouse.yandex/docs/en/operations/tips/#zookeeper - вполне рабочий конфиг

Egor
07.05.2018
11:01:36

Andrey ?
07.05.2018
11:03:03

Wolf
07.05.2018
11:03:37

Ivan
07.05.2018
11:03:55
тогда уж смотритель зоопарка

Egor
07.05.2018
11:04:35
standalone сервер КХ сложно в реплицируемый преобразовать?

Wolf
07.05.2018
11:05:42
в доке есть описание как мерджтри в репликейтед переделать вроде

Ivan
07.05.2018
11:27:40
как быстро получить последнюю по дате запись? колонка с датой используется как разделитель партиций

Sergei
07.05.2018
11:35:19
order by date desc limit 1

Pavel
07.05.2018
11:36:36
немного странный вопрос, а может кто-то уже написал свой скрипт, который автоматически эмулирует retention? У меня подневные партиции и нужно дропать все, что старше Х дней.

Ivan
07.05.2018
11:38:08

Kirill
07.05.2018
11:39:11

Sergei
07.05.2018
11:39:13

Google

Pavel
07.05.2018
11:39:46
@kshvakov ооо, круть!
спасибо :) идея ясна!

Ivan
07.05.2018
11:49:18

Sergei
07.05.2018
11:52:49

Ivan
07.05.2018
11:53:24
из справки: "Например, полезно писать PREWHERE для запросов, которые вынимают много столбцов, но в которых фильтрация производится лишь по нескольким столбцам."

Sergei
07.05.2018
12:05:35
ну и там же Следует иметь ввиду, что указывать в PREWHERE только столбцы, по которым существует индекс, имеет мало смысла, так как при использовании индекса и так читаются лишь блоки данных, соответствующие индексу.
а по date по идее index же

LeiDruid
07.05.2018
13:53:23
День добрый !
Есть 2 ноды КХ, есть локальная табличка (большая). Заливаю данные в такую же, но реплицируемую табличку (измеены индексы). Скорость что-то не "кх-шная" (11.95 thousand rows/s). Какие ручки покрутить ?

Kirill
07.05.2018
13:58:59

LeiDruid
07.05.2018
14:08:45
В этом случае все равно остаются вопросы к производительности
Я полагаю, не должно быть проблемы с тем, что просаживаются IO, показатели более чем прекрасные

Sergei
07.05.2018
14:09:44

LeiDruid
07.05.2018
14:12:41
inset into ... SELECT * FROM ... WHERE PARTITIONKEY < 'some-date'
По всем мониторилкам, сервер скучает

Sergei
07.05.2018
14:18:46
А кто нить использует КХ для большого количества запросов( более 100) в секунду на SELECT ? Часть из них читает по одним таблицам.

Kirill
07.05.2018
14:20:26

Sergei
07.05.2018
14:27:48

Google

LeiDruid
07.05.2018
14:41:13

Kirill
07.05.2018
14:45:20

LeiDruid
07.05.2018
14:50:27
А то мало ли что

Kirill
07.05.2018
14:52:54

Ivan
07.05.2018
14:53:38

LeiDruid
07.05.2018
14:59:17
А кто в курсе, как insert into select работает? Не по одной же вставляет, в конце-концов ?
А то 100 млз за 2 часа - это как-то жёстко, особенно, если учесть под триллион записей в табличке