
Alexey
18.06.2018
09:25:51

Alex
18.06.2018
09:26:25
отлично!

Kirill
18.06.2018
09:30:16
ЗК нужен только для репликации.

Oleh
18.06.2018
09:30:58

Google

Alex
18.06.2018
09:33:02

Nikolai
18.06.2018
09:34:52

?
18.06.2018
09:35:48
а вот смотрите, у меня пишутся логи посещений в кх, где с некоторой долей приближения уникальные посещения (где уникальность определяется чисто комбинаций IP+UA) в рамках сайта выделяются такой конструкцией
SELECT *
FROM logs
LIMIT 1 BY IP , UA, HOST
если я из этого делаю
SELECT *
FROM logs
ORDER BY TimeStamp
LIMIT 1 BY IP , UA, HOST
так я получаю самые первые вхождения этого пользователя на сайт. я правильно рассуждаю?

Nikolai
18.06.2018
09:47:10
на первый взгляд все верно

?
18.06.2018
10:00:27
а вот можно ли как-то также элегантно получить уникальные "сессии", когда между заходами пользователя прошло больше Х минут?
в первом приближении можно конечно добавить DateStamp, тогда в пределах суток получим "уникальность" сессий, плюс ошибка когда сессия на границе суток.
если добавить разбивку по toStartOfHour, будет точнее, но таких ошибок пограничных станет очень много.
подозреваю, что тут нужны timeSlots но пока не осознаю как красиво сделать.
то есть мне нужны первые заходы в рамках сессий, где сессии отделены Х минутами

Nikolai
18.06.2018
10:08:41
Это выглядит сложнее. Возможно, получится посчитать с использованием runningDifference. В целом, есть презентация на похожую тему: https://github.com/yandex/clickhouse-presentations/blob/master/meetup9/funnels.pdf

?
18.06.2018
10:10:31
спасибо, буду ковырять

Alex
18.06.2018
10:14:22
У меня ещё вопрос есть. Я переодически получаю: "DB::Exception: Too many simultaneous queries. Maximum: 100". При том, что я выставил в конфиге <max_concurrent_queries>500</max_concurrent_queries> и перезагрузил КХ.
Почему не применилось?
И какой вообще нормальный диапазон для этой настройки? Я могу выставить 10к или 1М? На что это влияет?

Oleh
18.06.2018
10:30:42
подскажите, а если я делаю ReplicatedMergeTree, а поверх нее я хочу сделать AggregatingMergeTree, то мне нужно делать сначала ReplicatedMergeTree, поверх нее Distributed а потом на Distributed вешать ReplicatedAggregatingMergeTree ?

Wolf
18.06.2018
10:32:43
сделайте отдельные таблицы и пишите в обе

Oleh
18.06.2018
10:34:04
я select буду делать только из AggregatingMergeTree

Wolf
18.06.2018
10:37:57
ну а зачем вам тогда мерджтри нужна

Google

Oleh
18.06.2018
10:40:59
мы думали сделать MATERIALIZED VIEW с движком AggregatingMergeTree

Vitaliy
18.06.2018
10:43:09
Кто-нибудь думал о том как жить с GDPR. К примеру - клиент хочет чтобы удалили логи...

Wolf
18.06.2018
10:45:32
да вроде по старому живем

Ilia
18.06.2018
10:50:37
Добрый день. Есть кластер клихаусов постоянно растет размер heap-а на нодах, после чего они падают, может можно как-то его ограничить?

Tima
18.06.2018
11:13:42

Perlovka
18.06.2018
11:42:13
Привет, есть результат UNION ALL из двух SELECT:
┌─id────────┬─count─┐
│ 1258 │ 6 │
│ 1510 │ 8 │
└───────────┴───────┘
┌────────id─┬─count─┐
│ 1258 │ 3 │
│ 1510 │ 2 │
└───────────┴───────┘
Как для каждого id произвести арифметические действия с count, т.е. например чтобы получить (count1/count2):
1258 | 2
1520 | 4
Уже всю голову сломал

Aliaksandr
18.06.2018
11:43:07
Репликация мне тоже нужна, т.е. получется без зукипера не работает. Очень плохо!
Смотря для чего используется репликация. Если для обеспечения доступности кластера в случае выхода из строя реплики, то без репликации сложно обойтись. Если для обеспечения сохранности данных в случае выхода из строя системы хранения данных, то можно обойтись без репликации, если записывать данные на сторейдж с защитой от выхода из строя типа как persistent storage в гугл клауде.

Perlovka
18.06.2018
11:43:46
Либо, может есть другие способы считать такие вещи?

papa
18.06.2018
11:48:51

Konstantin
18.06.2018
11:48:54

Perlovka
18.06.2018
11:50:12
union бежит параллельно, хотелось бы поэффективнее )

M
18.06.2018
11:51:35
Конечно не ахти, но работает
SELECT
user,
sum(count_1) / sum(count_2)
FROM
(
SELECT
1258 AS user,
toInt64(6) AS count_1,
toInt64(0) AS count_2
UNION ALL
SELECT
1258 AS user,
toInt64(0) AS count_1,
toInt64(3) AS count_2
)
GROUP BY user
┌─user─┬─divide(sum(count_1), sum(count_2))─┐
│ 1258 │ 2 │
└──────┴────────────────────────────────────┘

Konstantin
18.06.2018
11:51:37

Perlovka
18.06.2018
11:52:55

Aliaksandr
18.06.2018
11:54:25


Alex
18.06.2018
11:55:17

Perlovka
18.06.2018
12:03:33

Alex
18.06.2018
12:10:01

Yuran
18.06.2018
12:11:47

Google

Alex
18.06.2018
12:17:00

Yuran
18.06.2018
12:17:34
А каким образом оно связано?
Наверняка CH тоже не особо очищает буферы под HTTP (или другой протокол), которые используются при вставке в это соединение
Примерно как с мемкешом

Alex
18.06.2018
12:18:40

Anton
18.06.2018
12:19:48
Я не знаю, спрашивали ли, но не планируется ли в ClickHouse аналоги vbr из комлекта HP Vertica для бэкапа кластера?
вариант с Select не предлагать, терабайты данных в пожатом виде, про RAW вообще умолчу )

Denis
18.06.2018
12:22:50

Ilia
18.06.2018
12:32:40

Denis
18.06.2018
12:42:35
<max_memory_usage>10000000000</max_memory_usage>, у сервера всего 256G
можно смотреть что КХ думает про используемую им память
SELECT metric, formatReadableSize(value) FROM system.asynchronous_metrics where (metric LIKE 'generic%')
и можно смотреть сколько памяти жрут мержи, у меня однажды вышло в данных так, что мержу надо было очень много памяти, больше чем ее было у сервера.
select formatReadableSize(memory_usage) m,* from system.merges order by m desc

Ilia
18.06.2018
12:56:49


Вадим
18.06.2018
13:10:00
Добрый день. Поставил Clickhouse из репозитария Яндекс на OpenSUSE Leap 15.0.
service clickhouse-server start висит 12-13 сек и завершается
При этом в /var/log/clickhouse-server/ логи не создаются, в /var/lib/clickhouse/ файлы и подкаталоги не создаются
journalctl -x выдает только:
— The process /usr/bin/clickhouse-server could not be executed and failed.
—
— The error number returned by this process is 3.
Jun 18 16:06:46 webW systemd[1]: clickhouse-server.service: Main process exited, code=exited, status=217/USER
Jun 18 16:06:46 webW systemd[1]: clickhouse-server.service: Unit entered failed state.
Jun 18 16:06:46 webW systemd[1]: clickhouse-server.service: Failed with result 'exit-code'.
clickhouse-server —config-file=/etc/clickhouse-server/config.xml при этом нормально запускается...
права на оба каталога есть. по дефолтному конфигу пробежался - вроде ничего крамольного...

Denis
18.06.2018
13:12:09
а systemd запускает от какого пользователя?

Вадим
18.06.2018
13:12:12
Что еще посмотреть?

Denis
18.06.2018
13:18:32

Вадим
18.06.2018
13:19:29
я уже понял... не было таких u/g
tnx

Aliaksandr
18.06.2018
13:49:58

Google

Михаил
18.06.2018
13:52:48
Вот это спам


Andron
18.06.2018
14:37:08
Добрый день, тестирую CH с Distributed таблицами, на тестах с 20 потоками с выборкой за месяцы получаю ClickHouseUnknownException: ClickHouse exception, code: 1002, host: 127.0.0.1, port: 8123; 127.0.0.1:8123 failed to respond
на одной из НОД нахожу в логе 2018.06.18 05:42:39.284854 [ 102 ] <Error> executeQuery: Code: 210, e.displayText() = DB::NetException: Connection reset by peer while writing to socket (172.26.101.132:35852)
и стектрейс
Stack trace:
0. clickhouse-server(StackTrace::StackTrace()+0x16) [0x45d5226]
1. clickhouse-server(DB::Exception::Exception(std::string const&, int)+0x1f) [0x25f068f]
2. clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x274) [0x45f5914]
3. clickhouse-server(DB::WriteBuffer::next()+0x26) [0x25ff5d6]
4. clickhouse-server(DB::TCPHandler::processOrdinaryQuery()+0x4ad) [0x25fb88d]
5. clickhouse-server(DB::TCPHandler::runImpl()+0x4e0) [0x25fdd70]
6. clickhouse-server(DB::TCPHandler::run()+0x1c) [0x25fe9ec]
7. clickhouse-server(Poco::Net::TCPServerConnection::start()+0xf) [0x47ee56f]
8. clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x110) [0x47eebd0]
9. clickhouse-server(Poco::PooledThread::run()+0x77) [0x4a08f57]
10. clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0x38) [0x4a066b8]
11. clickhouse-server() [0x4b027cf]
12. /lib64/libpthread.so.0(+0x7dc5) [0x7f86c298fdc5]
13. /lib64/libc.so.6(clone+0x6d) [0x7f86c1d4673d]
2018.06.18 05:42:39.310318 [ 21 ] <Warning> TCPHandler: Client has gone away.
2018.06.18 05:42:39.335951 [ 102 ] <Warning> TCPHandler: Client has gone away.
я так понимаю это надо какую то настройку Distributed tables увеличить, чтобы дожидалось ответа от НОДы ... или все иначе?
благодарю за уделенное время
запрос выполнялся 90 секунд. Но до этого были и другие забпрос , выполнявшиеся и по 110 секунд, они были успешны
а тут череда фейлов


LeiDruid
18.06.2018
15:05:27
Товарищи, а есть способ КХ сбросить кэши ? У меня сейчас была ситуация, при которой КХ подъел всю свободную память в RSS, при этом, судя по всему, не мог нормально выделить новые куски и тормозил люто
Похоже, что дело в uncompresses cache
В целом - его работа меня устраивает, но есть ли способ очистить память вручную ?

Alex
18.06.2018
15:24:10
Посоны, у меня clickhouse не стартует. В папочке job_searches похоже столько файлов скопилось, что я ещё даже через ls открыть не могу.
Что там в этой папке находится? Можно это дропнуть безболезненно?

prll
18.06.2018
15:27:40

Alex
18.06.2018
15:28:15
ага.. хм..

prll
18.06.2018
15:42:38
если много файлов - значит много кусков, а насколько правильно данные по первичному ключу разложены?

Alex
18.06.2018
15:44:53
А это может быть из-за того что писали не балками, а кучей единичных инсертов паралельно?

prll
18.06.2018
15:49:05
тогда через какое-то время все должно было бы смержиться в большие куски

Alex
18.06.2018
15:50:56
Ну вот он упал и не поднимается.
Есть возможность зачинить это как-то?

?
18.06.2018
16:02:00
если даже ls не делается, то может проще все остальное перенести без этой папки и попробовать запустить?

Google

Alex
18.06.2018
16:03:21
да, я так и делаю сейчас.
А в дальнейшем данные можно востановить будет? Тула может есть какая-то?

?
18.06.2018
16:07:20
я бы включил trace в логах кх и посмотрел чего он делает при старте, скорее всего из-за тормозов фс он не может считать их чтобы смержить.
если оно все память поместится, то может быть на какую-нить in-memory фс всю базу закинуть? и оставить на ночь )

Alex
18.06.2018
16:11:20
du -sh я тоже не могу сделать, что-бы сказать поместится оно или нет.

?
18.06.2018
16:11:58
ну можно все остальное посчитать на диске кроме него и из общего размера занятого вычесть

Alex
18.06.2018
16:13:14
Может issue завести?
или попробовать КХ попатчить, или мердж за него сделать?

Wolf
18.06.2018
16:31:14
Мне кажется вы просто слишком много вставляли и накопилась куча кусков

Stanislav
18.06.2018
16:58:17
при обработке запроса возникла ситуация, когда кх сообщил memory limit exceeded. При этом сообщил он о превышении лимита у профиля default, а у пользователя был свой, бОльший лимит, поставленный некоторое время назад, до апгрейда на версию 54381. Эт
о сейчас что, мЕньший лимит применяется?
Или баг и смотрится только лимит у default?

prll
18.06.2018
17:11:25

Timur
18.06.2018
22:15:12
Где можно почитать как будет работать Update/delete?

Михаил
19.06.2018
04:12:00

Timur
19.06.2018
04:21:42
А с точки зрения внутренностей? Синтаксис меня мало интересует, интересую нюансы
Дорогая ли это операция, как он будет переживать частые удаления и тп
В replicated merge tree

LeiDruid
19.06.2018
04:31:11
Товарищи, а есть способ КХ сбросить кэши ? У меня сейчас была ситуация, при которой КХ подъел всю свободную память в RSS, при этом, судя по всему, не мог нормально выделить новые куски и тормозил люто
Похоже, что дело в uncompresses cache