
Roman
21.10.2018
17:43:10


Denis
21.10.2018
17:55:09
@hagen1778 Я так понимаю ты автор :) Отдельное логирование действий в chproxy в отдельный файл можно реализовать? Сюда же и вращение логов по объему, времени, кол-ву. Или это лучше отдельным ПР в гит оформить? В go не силен, но посидев, можно сделать?

Roman
21.10.2018
18:15:42

Google

Denis
21.10.2018
18:21:10

Stas
22.10.2018
06:30:58
Привет! Подскажите, стоит ли овчинка выделки? Есть реплики на которых место приходит к концу. Планируем сделать распределенные таблицы. Тут есть 2 выхода. Сделать большой вес на новые сервера, либо разбросать данные со старых серверов для распределения нагрузки на кластер. Большинство запросов делается по свежим данным. Склоняемся пока ко второму варианту, но неужели кто-то заморачивается ребалансировкой данных при каждом добавлении сервера в кластер?

Vladimir
22.10.2018
06:41:47
Ребят привет! Подскажите правильно ли я понимаю что для кластера с distributed таблицами нужно как минимум 3 сервера?
или это нужно только для репликаций? а для дистриб можно 2 сервера?

Stas
22.10.2018
06:49:55

Vladimir
22.10.2018
06:59:13
Еще один вопрос а права для user в users.xml можно ограничит таблицами или права работают только на базы?

Stas
22.10.2018
07:02:43

Alexey
22.10.2018
07:27:19

Aleksandr
22.10.2018
07:28:48
Привет ребят, а как можно сравнить 2 даты и поискать записи у которых даты расходяться больше чем на Х секунд/минут/часов/дней?

Alexey
22.10.2018
07:31:54
А так то в таймстемп можно перевести и будет разница в секундах

Aleksandr
22.10.2018
07:32:58
toRelativeSecondNum вроде оно?

Alexey
22.10.2018
07:33:09
Функций по датам и времени море, посмотрите в доке

Google

Alexey
22.10.2018
07:36:14
Разница между двумя datetime секунды, кстати, кажется
И переводить не надо

Kirill
22.10.2018
08:10:29

Vladimir
22.10.2018
08:11:14
Только базы
а есть ли в планах по таблицам сделать разграничения?

Kirill
22.10.2018
08:12:57

Maxim
22.10.2018
08:14:36
хорошо что по акции

Kirill
22.10.2018
08:14:45

Vladimir
22.10.2018
08:18:28

Kirill
22.10.2018
08:33:57

Vladimir
22.10.2018
08:34:37

Stas
22.10.2018
08:36:40

Kirill
22.10.2018
08:41:49

Vladimir
22.10.2018
09:01:50
Ребята вопрос такого плана - как вы решаете поиск данных по unixtimestamp? добавляете его в ключ?


Alexey
22.10.2018
09:08:23
Приветствую!
Подскажите, пожалуйста, какую схему лучше использовать.
У нас 2 типа данных: метрики, которые постоянно накапливаются, которые можно записать в SummingMergeTree,
и метрики, которые периодически будут перезаписываться, скорее всего будут записаны в ReplacingMergeTree.
Ключи этих двух таблиц пересекаются (есть составной уникальный ключ, одинаковый для обеих таблиц).
Мы хотим использовать одну общую таблицу для хранения всех метрик.
Скорее всего, для этого также подойдет ReplacingMergeTree.
Данные из двух таблиц мержатся несколько раз в час во временную таблицу, после чего копируются в общую таблицу.
Но после этого, чтобы получать корректные данные из общей таблицы, нужно делать SELECT с использованием FINAL.
Такие запросы выполняются очень долго.
Также, после optimize в общей таблице остаются дубликаты.
Как можно улучшить эту схему? Использовать для общей таблицы CollapsingMergeTree?
Джойнить данные без общей таблицы? Есть лучшее решение?


M
22.10.2018
09:09:40
Приветствую!
Подскажите, пожалуйста, какую схему лучше использовать.
У нас 2 типа данных: метрики, которые постоянно накапливаются, которые можно записать в SummingMergeTree,
и метрики, которые периодически будут перезаписываться, скорее всего будут записаны в ReplacingMergeTree.
Ключи этих двух таблиц пересекаются (есть составной уникальный ключ, одинаковый для обеих таблиц).
Мы хотим использовать одну общую таблицу для хранения всех метрик.
Скорее всего, для этого также подойдет ReplacingMergeTree.
Данные из двух таблиц мержатся несколько раз в час во временную таблицу, после чего копируются в общую таблицу.
Но после этого, чтобы получать корректные данные из общей таблицы, нужно делать SELECT с использованием FINAL.
Такие запросы выполняются очень долго.
Также, после optimize в общей таблице остаются дубликаты.
Как можно улучшить эту схему? Использовать для общей таблицы CollapsingMergeTree?
Джойнить данные без общей таблицы? Есть лучшее решение?
У нас для таких задач используется UNION ALL
а в верхнем заросе, уже выбираются нужные метрики. Только тут есть нюанс. Список колонок должен быть одинаковым. И тут в запросы добавлять toType(0) AS missed_field
чем хорош - тем, что выборки из двух таблиц идут параллельно
если цель в экономии места... то тогда да, собирать как то в одну. Но может можно сделать так, если у вас данные перестают обновлятся через час (допустим) то спустя час уже аггрегированные данные копировать в финализирующую таблицу. А все запросы строить поверх "временной" и финальной через юнион. Только из временной выбирать только последний час

Google

M
22.10.2018
09:13:19
потом чистить

Dmitry
22.10.2018
09:29:08
ребят, подскажите по поводу вложенных структур данных. Как это внутри хранится? Это дополгительная таблица или нет? Какой примерный оверхед на хранение данных в таком виде?

Константин
22.10.2018
09:54:36
Добрый день! Хочу перенести data директорию на другой диск
в конфиге нашел вот такое:
<!-- Path to data directory, with trailing slash. -->
<path>/mnt/dbdisk/clickhouse/</path>
получается, что надо переносить всю папку из /var/lib?
или можно только data?

J
22.10.2018
10:51:20
Всем доброго дня!
Есть такой вопрос:
Можно ли вызвать функцию во время инсерта :)
insert into flow(dictGetString('GEOIP', 'ASN', tuple(SrcAS))) values(?)
Заранее спасибо!

Kirill
22.10.2018
10:52:37
Struct Nested (
ID Int64
Value String
)
Это
Struct.ID Array(Int64)
Struct.Value Array(String)

J
22.10.2018
11:01:00
у меня disk01 и disk02

Stanislav
22.10.2018
11:01:54
Что имелось ввиду под "использовать несколько дисков"?

J
22.10.2018
11:04:49
у меня disk01 и disk02
/dev/sdb1 99G 94G 124M 100% /disk01
/dev/sdc1 197G 927M 186G 1% /disk02
disk01 заполнился хочу замаунтить 02

Alexey
22.10.2018
11:06:50

Wolf
22.10.2018
11:06:55
выключи кх , перенеси папку /var/lib/clickhouse сделай с новго диска симлинк обратно на папку /var/lib/clickhouse

J
22.10.2018
11:08:10

Wolf
22.10.2018
11:08:18
нет а зачем вам оба ?

Google

J
22.10.2018
11:09:23
хочу чтобы у меня дисковое пространство было disk01+disk02

Wolf
22.10.2018
11:09:44
ну сделай лвм над ними и обьедени их

J
22.10.2018
11:10:24
лвм это на сколько я знаю на уровне ОС?

Wolf
22.10.2018
11:10:39
но если отвалится один диск вы потеряете все деньги

Григорий
22.10.2018
11:10:50
Для IP какой тип данных лучше подходит?

J
22.10.2018
11:11:15

Леонид
22.10.2018
11:14:38

Григорий
22.10.2018
11:15:16

Andrey
22.10.2018
11:35:16
в подобной схеме: https://www.altinity.com/blog/2018/5/10/circular-replication-cluster-topology-in-clickhouse (3 шарда по 2 реплики на 3х узлах) реально ли каким то образом использовать запросы ON CLUSTER? то же создание таблиц

Константин
22.10.2018
11:56:50
народ
помоги пожалуйста
на кластере, перенес /var/lib/clickhouse на другой диск
на 3х серверах все запустилось сразу
на последнем не хочет
2018.10.22 14:56:49.466860 [ 10 ] <Error> default.js_requests_local (StorageReplicatedMergeTree, RestartingThread): Couldn't start replication: DB::Exception, DB::Exception: Replica /clickhouse/tables/01/js_requests_local/replicas/01 appears to be already active. If you're sure it's not, try again in a minute or remove znode /clickhouse/tables/01/js_requests_local/replicas/01/is_active manually, stack trace:
и таких сообщений на каждую таблицу

Alex
22.10.2018
11:59:48
А старый процесс сервера потушен на этой ноде?
Ещё такое бывает, если предыдущий процесс жёстко завершился. Но через полминуты должно пройти.

Константин
22.10.2018
12:01:01
да
предыдущй процесс был принудительно остановлен

Google

Константин
22.10.2018
12:01:20
через forcestop
кончилось место на сервере
пришлось тушить КХ, докидывать больший диск, перемещать данные
и не возможно подключится локально к КХ
Code: 210. DB::NetException: Connection refused: (127.0.0.1:9000)

Se
22.10.2018
12:05:28
привет . кто может подсказать почему репликация в одну сторону работает
на сервере куда данные не реплицируются. такие ошибки
18.10.22 15:03:22.377107 [ 53 ] {} <Error> InterserverIOHTTPHandler: Code: 221, e.displayText() = DB::Exception: No interserver IO endpoint named DataPartsExchange:/clickhouse/tables/01/p_
2018.10.22 15:03:22.377297 [ 16 ] {} <Error> p_doublegis_ios.event_log (StorageReplicatedMergeTree): DB::StorageReplicatedMergeTree::queueTask()::<lambda(DB::StorageReplicatedMergeTree::LogEntryPtr&)>: Code: 33, e.displayText() = DB::Exception: Cannot read all data. Bytes read: 0. Bytes expected: 8., e.what() = DB::Exception, Stack trace:
версия кликхауса на обоих серверах 18.14.9
зукипер 3.4.9

Kirill
22.10.2018
12:08:11
Он по hostname вашу машину не видит
* скорее всего

Se
22.10.2018
12:09:19
именно хостнейм нужен?
я прописал в hosts файл
видят друг друга
но в конфиге днс имена. они другие

Denys
22.10.2018
12:11:48
Как в докер контейнер подсунуть sql с инициализацией таблиц ? в mysql и postgresql есть папка docker-init.d или что то типо того
У меня docker-compose потому синтаксис ограничен