
papa
09.07.2018
11:33:00
результат вызова агрегатной функции при группировке по пустому туплу

Dmitry
09.07.2018
11:33:25
?
Короче, походу проблема с SAMPLE. Цитата из доков: « SAMPLE n, где n - достаточно большое целое число».

Alexey
09.07.2018
11:50:27

Google

Alexey
09.07.2018
11:53:54
?
по идее это uniqExact(visit_id) AS visits без группировки по page

Denis
09.07.2018
11:55:32
тогда возможно, что один из юзеров на 3 страницы заходил, остальные по однй. и тогда сходится

Alexey
09.07.2018
11:57:34
должно быть 4

Дмитрий
09.07.2018
12:14:41
привет. поделитесь плиз ссылкой на инструкцию, как установить кликхаус+графана

Stanislav
09.07.2018
12:17:51
А зачем их вместе-то устанавливать?
Всё ж разные сервисы

Николай
09.07.2018
12:20:14
Подскажите, где посмотреть у функции pointInPolygon какие параметры? Я что-то запутался, что на первом месте latitude или longitude всё-таки.

Vsevolod
09.07.2018
12:22:45

Yaroslav
09.07.2018
12:26:56
Всем привет, возникла проблема при работе с zookeeper. Всего один шард, на локальной машине (таблицы ReplicatedMergeTree). Никогда такого не было, но сейчас очень часто возникает ошибка:
Code: 122. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Table structure in ZooKeeper is too different from local table structure.
Пробовал удалять таблицу через zookeeper-cli, из папки /var/lib. Где zookeeper хранит данные о таблице??? Можно ли как-то удалить данные о всех таблицах из zookeeper?

Michal
09.07.2018
12:28:15

Николай
09.07.2018
12:29:26

Google

Michal
09.07.2018
12:30:46

Egor
09.07.2018
12:31:01

Yaroslav
09.07.2018
12:31:46

Denis
09.07.2018
12:31:56

Michal
09.07.2018
12:36:39

Yaroslav
09.07.2018
12:43:31
спасибо, но не помогает, уже пробовал это. Он все равно где-то видит старую структуру.....

Michal
09.07.2018
12:47:43
Не может быть :) Может у вас какая-то другая таблица на том же хосте в ту же папку смотрит?
Загляните ещё так: SELECT * FROM system.zookeeper WHERE path='/clickhouse/ ... путь к вашей таблице ...'


Yaroslav
09.07.2018
12:51:10
SELECT *
FROM system.zookeeper
WHERE path = '/clickhouse'
┌─name───────┬─value─┬─czxid─┬─mzxid─┬───────────────ctime─┬───────────────mtime─┬─version─┬─cversion─┬─aversion─┬─ephemeralOwner─┬─dataLength─┬─numChildren─┬─pzxid─┬─path────────┐
│ tables │ │ 6 │ 6 │ 2018-07-09 15:40:59 │ 2018-07-09 15:40:59 │ 0 │ 4 │ 0 │ 0 │ 0 │ 0 │ 41 │ /clickhouse │
│ task_queue │ │ 3 │ 3 │ 2018-07-09 15:40:50 │ 2018-07-09 15:40:50 │ 0 │ 1 │ 0 │ 0 │ 0 │ 1 │ 4 │ /clickhouse │
└────────────┴───────┴───────┴───────┴─────────────────────┴─────────────────────┴─────────┴──────────┴──────────┴────────────────┴────────────┴─────────────┴───────┴─────────────┘
localhost :) select * from system.zookeeper WHERE path='/clickhouse/tables'
Ok.
0 rows in set. Elapsed: 0.005 sec.
нет ничего)
localhost :) show tables
SHOW TABLES
Ok.
0 rows in set. Elapsed: 0.007 sec.
и таблиц нет
причем до сегодняшнего дня все отлично работало)
вот я и думаю, что он куда то может скинул данные о моих таблицах, которые были
$ cat nginx.sql | clickhouse-client -n -m
Received exception from server (version 1.1.54385):
Code: 122. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Table structure in ZooKeeper is too different from local table structure.


Michal
09.07.2018
12:53:38
А базы данных другие есть? SHOW DATABASES?

Yaroslav
09.07.2018
12:54:43
localhost :) show databases
SHOW DATABASES
┌─name────┐
│ default │
│ system │

Michal
09.07.2018
12:55:19
Может вы поудаляли данные из зукипера пока таблицы ещё были? Попробуйте перезапустатить Clickhouse.

Yaroslav
09.07.2018
12:57:33
то же самое...

Google

Yaroslav
09.07.2018
12:58:55
zookeeper можно как-то снести полностью, чтобы он за собой все подчистил свои данные?

molo4ko
09.07.2018
14:16:23

Stanislav
09.07.2018
14:21:49
Обычно в /var/lib/zookeeker всё лежит.
Если требуется не удалить, а получить свежеустановленный зукипер - достаточно остановить, удалить базы (у меня лежат в /var/lib/zookeeper/version-2) и потом запустить.


Alexey
09.07.2018
14:24:52
А что это вообще такое? У вас нет презентаций или видео про это? Я пытаюсь понять, как это работает, по упоминанию в документации и пока не осилил)
Это значит - у вас есть очень большой кластер.
Его можно рассматривать и как единое целое - для глобальных запросов, и как совокупность небольших кластеров - для запросов по одному клиенту.
На каждом сервере создано две Distributed таблицы и в конфиге объявлено два кластера - один большой, а другой - маленький, для части данных.
Для примера, у нас всего серверов в одном кластере - 584. Они разбиты на 39 маленьких кластеров, которые мы называем "слои". Данные каждого счётчика Метрики (сайта) располагаются в пределах одного слоя. Каждый слой содержит от 4 до 16 шардов - от 8 до 32 серверов.
Слои можно масштабировать независимо. В рамках слоя схема шардирования - произвольная (random).


Stanislav
09.07.2018
14:24:53
Лично мне это понадобилось только когда у кластера съехала крыша (неправильно расчитал требуемый объём памяти) и его содержимое пришлось восстанавливать из бекапа, выбирая узел с самым последним сбекапленым содержимым и очищая остальные...

GithubReleases
09.07.2018
15:37:54
yandex/ClickHouse was tagged: v1.1.54390-stable
Link: https://github.com/yandex/ClickHouse/releases/tag/v1.1.54390-stable
Release notes:
v1.1.54390-stable

Slava
09.07.2018
15:45:40

Dmitrii
09.07.2018
15:48:47

Slava
09.07.2018
15:49:12
спасибо

Alexey
09.07.2018
15:52:21
https://github.com/yandex/ClickHouse/compare/v1.1.54388-stable...v1.1.54390-stable
Вот так правильно.

Dmitrii
09.07.2018
15:57:28

Alexey
09.07.2018
16:05:25
ALTER DELETE есть и в предыдущем релизе.

Dmitrii
09.07.2018
16:47:37

Александр
09.07.2018
18:58:14
@milovidov_an а почему alter delete только для реплицируемых таблиц? В чем особенность?

Alexey
09.07.2018
18:59:49

Александр
09.07.2018
19:00:30
Просто мне казалось, что в обратном порядке делать проще :) Или вы начали POC делать на примере посложнее обычной таблички на одном сервере?

Alexey
09.07.2018
19:02:26

Google

Александр
09.07.2018
19:03:12

Alexey
09.07.2018
19:05:12

Александр
09.07.2018
19:06:42
У нас просто есть блок работ в котором есть вилка из мигратора данных из партиций с устаревшими данными в новые и потом удаление старых партиций, либо использование функционала удаления. Мы пока доберемся с этим блоком в работу, глядишь вы допилите полноценную поддержку!
Мы планируем активно этой штукой пользоваться

Alexey
09.07.2018
19:12:49

Daniel
09.07.2018
19:14:08
Кто-нибудь пробовал ограничивать память для пользователя clickhouse в security/limits.conf, чтобы избежать ситуации возможных ООМ-ов? Работало/работает ли?

Aleksey
09.07.2018
20:43:47
всем привет, запрос возвращает значения колонки
1
2
3
4
можно сделать так, чтобы вернулась одной строкой: 1,2,3,4?
тк нужен по сути хеш последовательности

Александр
09.07.2018
21:11:03

Aleksey
09.07.2018
21:24:32
то что надо, спс

Timur
10.07.2018
03:42:16
/clickhouse

Антон
10.07.2018
05:26:18
Всем привет. Подскажите пожалуйста. У меня есть данные в json по типу
{"number":1,"string":1}
{"string":9,"number":2}.
Мне нужно их разложить в следующем виде:
number,1
string,1
string,9
number,2
Искал в доке функции для работы с json или регулярками, но ничего подходящего не нашел.

Timur
10.07.2018
06:16:35
как в селекте из distributed таблы принудительно подставить значение из словаря только когда данные попадут на локальный сервер? только create table as select … ? потом select getDict,* из таблицы?

Alex
10.07.2018
07:14:44
/clickhouse

Константин
10.07.2018
07:51:49
Добрый день!
vast_tracking.Distributed.DirectoryMonitor: Code: 209, e.displayText() = DB::NetException: Timeout exceeded while reading from socket (192.168.0.12:9000)
имею такую ошибку на кластере
на хосте 192,168,0,12 - все в порядке
консоль КХ работает
хост виден и пингуется:
ING 192.168.0.12 (192.168.0.12) 56(84) bytes of data.
64 bytes from 192.168.0.12: icmp_seq=1 ttl=64 time=12.2 ms
64 bytes from 192.168.0.12: icmp_seq=2 ttl=64 time=12.0 ms

Stanislav
10.07.2018
07:53:08
файрволлом лишнего не прикрыто? В частности, коннект с/на соседний сервер. И на соседнем сервере.

Google

Константин
10.07.2018
07:53:40
нет, внутри сети серверов нет ничего такого
вот даже попробовал приконектить консоль к тому серверу:
@s1:/var/log/clickhouse-server# clickhouse-client —host 192.168.0.12 —multiline
ClickHouse client version 1.1.54164.
Connecting to 192.168.0.12:9000.
Connected to ClickHouse server version 1.1.54164.
:)
однако, дистрибуция данных сбоит...

prll
10.07.2018
07:55:57
Ошибка единичная или постоянная ?

Константин
10.07.2018
07:56:51
я сейчас перезапустил ту ноду
посомтрю
а так да, лог весь усупан
вроде рестарт ноды помог

Артем
10.07.2018
08:10:55

Wolf
10.07.2018
08:12:07
но она у вас наверно первичныйключ, и не должно быть пустым?

Daniel
10.07.2018
08:24:51
DateTime вставляете как epoch без скобочек по бокам?