
Vsevolod
02.10.2018
14:58:37
<Information> Application: It looks like the process has no CAP_NET_ADMIN capability, 'taskstats' performance statistics will be disabled. It could happen due to incorrect ClickHouse package installation. You could resolve the problem manually with 'sudo setcap cap_net_admin=+ep /usr/bin/clickhouse'. Note that it will not work on 'nosuid' mounted filesystems. It also doesn't work if you run clickhouse-server inside network namespace as it happens in some containers. - а для чего этот taskstats нужен?

Tatiana
02.10.2018
14:59:21

Zo zo
02.10.2018
14:59:41
Подскажите, как посчитать определенную перцентиль? из коробки не нахожу способа. нет такого?

Konstantin
02.10.2018
15:00:23
quantile

Google

Zo zo
02.10.2018
15:01:23

Denis
02.10.2018
15:02:21

Vsevolod
02.10.2018
15:04:03
спасибо

Sergey
02.10.2018
15:04:36
[2321/5502] Linking CXX executable contrib/llvm/llvm/bin/llvm-tblgen
FAILED: contrib/llvm/llvm/bin/llvm-tblgen
…
library not found for -lLLVM
collect2: error: ld returned 1 exit status
[2330/5502] Building CXX object contrib/llvm/llvm/lib/MC/CMakeFiles/LLVMMC.dir/MCContext.cpp.o
ninja: build stopped: subcommand failed.
может кто сталкивался при сборке на MAC-е ?

Vsevolod
02.10.2018
15:07:52
я это, кажется, решал опцией cmake -DENABLE_EMBEDDED_COMPILER=0

Sergey
02.10.2018
15:08:51

Zo zo
02.10.2018
15:13:21
quantile
а обратную операцию можно как-то реализовать? т.е. “в какую квантиль влезает то, где field < threshold”

Sergey
02.10.2018
15:38:00

Michal
02.10.2018
18:19:22

Гурам
02.10.2018
18:20:34

[Anonymous]
02.10.2018
18:22:27
Hello to all

Pavel Tyavin
02.10.2018
18:59:50
Подскажите, как посчитать матрицу корелляций всех колонок со всеми? есть какой-нибудь простой способ составить запрос?

prll
02.10.2018
20:06:36
не помогло
а если cmake -DENABLE_EMBEDDED_COMPILER=0 -DUSE_INTERNAL_LLVM_LIBRARY=0

Google

Sergey
02.10.2018
20:08:04

Гурам
03.10.2018
06:30:31
Добрый день. Я правильно понимаю что ALTER ... UPDATE для полей с типом Decimal на данный момент не возможен?

Artem
03.10.2018
06:49:52
Добрый, мы просто еще не пробовали :) Можете завести issue на гитхабе - доделаем. Decimal сейчас alfa - может что-то не работать

?
03.10.2018
06:59:39
а подскажите по кафке. я запустил ее по официальной доке, создал топик test, туда записал несколько сообщений, консольным клиентом их вижу. из своего го-клиента туда пишу строки с \n в конце, их тоже вижу.
пытаюсь подключиться в КХ, таким образом
CREATE TABLE testKafka (
message String
) ENGINE = Kafka SETTINGS kafka_broker_list = '192.168.0.4:9092',
kafka_topic_list = 'test',
kafka_group_name = 'group1',
kafka_row_delimiter = '\n', // без него тоже пробовал
kafka_format = 'CSV';
отправляю пару сообщений в кафку, но SELECT * FROM testKafka делает паузу на пол секунды и ничего не возвращает. с выключенной кафкой такая же реакция.
в логах по кафке только такое
StorageKafka (testKafka): Starting reading 1 streams, 65536 block size
Kafka
что я делаю не так?


Yaroslav
03.10.2018
07:04:13
Можно "размножить" строки с помощью array join, произвести все нужные вычисления, а потом обратно собрать с помощью groupArray.
Так и не смог разобраться)
Например, у нас есть таблица test и в ней колонка val1. В данной колонке могут быть строковые значения 'a', 'b', 'c', ... и т.д. Заранее список значений неизвестен.
Как должен выглядеть запрос, чтобы получить map с количеством этих значений, например (['a', 'b', 'c'], [4, 3, 7])?

Michal
03.10.2018
07:19:36
Так и не смог разобраться)
Например, у нас есть таблица test и в ней колонка val1. В данной колонке могут быть строковые значения 'a', 'b', 'c', ... и т.д. Заранее список значений неизвестен.
Как должен выглядеть запрос, чтобы получить map с количеством этих значений, например (['a', 'b', 'c'], [4, 3, 7])?
т.е. у вас даже не в Array эти данные а просто в колонке?

Yaroslav
03.10.2018
07:21:06
да, это просто строковые данные

Michal
03.10.2018
07:21:41
А чем банальное select val1, count() from table group by val плохо?

Yaroslav
03.10.2018
07:22:01
для числовых данных работало sumMap(array(val1), array(toUInt32(1)))

Michal
03.10.2018
07:23:43

Yaroslav
03.10.2018
07:24:12
ну хотелось бы это получить в виде, например, как выдаёт sumMap для дальнейшей обработки и делать это не отдельным запросом, а просто указать как доп поле при select

Гурам
03.10.2018
07:25:10


?
03.10.2018
07:35:30
а подскажите по кафке. я запустил ее по официальной доке, создал топик test, туда записал несколько сообщений, консольным клиентом их вижу. из своего го-клиента туда пишу строки с \n в конце, их тоже вижу.
пытаюсь подключиться в КХ, таким образом
CREATE TABLE testKafka (
message String
) ENGINE = Kafka SETTINGS kafka_broker_list = '192.168.0.4:9092',
kafka_topic_list = 'test',
kafka_group_name = 'group1',
kafka_row_delimiter = '\n', // без него тоже пробовал
kafka_format = 'CSV';
отправляю пару сообщений в кафку, но SELECT * FROM testKafka делает паузу на пол секунды и ничего не возвращает. с выключенной кафкой такая же реакция.
в логах по кафке только такое
StorageKafka (testKafka): Starting reading 1 streams, 65536 block size
Kafka
что я делаю не так?
главное, что непонятно как это расследовать, в логах почти пусто

Michal
03.10.2018
08:07:00

Yaroslav
03.10.2018
08:16:06
спасибо!


Michal
03.10.2018
08:19:35
а подскажите по кафке. я запустил ее по официальной доке, создал топик test, туда записал несколько сообщений, консольным клиентом их вижу. из своего го-клиента туда пишу строки с \n в конце, их тоже вижу.
пытаюсь подключиться в КХ, таким образом
CREATE TABLE testKafka (
message String
) ENGINE = Kafka SETTINGS kafka_broker_list = '192.168.0.4:9092',
kafka_topic_list = 'test',
kafka_group_name = 'group1',
kafka_row_delimiter = '\n', // без него тоже пробовал
kafka_format = 'CSV';
отправляю пару сообщений в кафку, но SELECT * FROM testKafka делает паузу на пол секунды и ничего не возвращает. с выключенной кафкой такая же реакция.
в логах по кафке только такое
StorageKafka (testKafka): Starting reading 1 streams, 65536 block size
Kafka
что я делаю не так?
Хм. А если попробовать вставить не пару сообщений а пару тысяч сообщений?
kafkacat'ом например.
Кстати им же можно проверить нормально ли работает подключение к кафке "из вне" (kafkacat можно запустить в режиме консьюмера, он использует ту же библиотеку для доступа к кафке что и кликхаус).


Vsevolod
03.10.2018
09:02:37
отцы, а кто может рассказать про clickhouse и openssl:
openssl s_client -connect localhost:8443 -servername localhost -debug -tls1
read from 0x181a9d0 [0x182cbc3] (5 bytes => 5 (0x5))
0000 - 15 03 01 00 02 .....
read from 0x181a9d0 [0x182cbc8] (2 bytes => 2 (0x2))
0000 - 02 28 .(
140471700694928:error:14094410:SSL routines:ssl3_read_bytes:sslv3 alert handshake failure:s3_pkt.c:1493:SSL alert number 40
140471700694928:error:1409E0E5:SSL routines:ssl3_write_bytes:ssl handshake failure:s3_pkt.c:659:
---
no peer certificate available
---
No client certificate CA names sent
---
SSL handshake has read 7 bytes and written 0 bytes
---
New, (NONE), Cipher is (NONE)
Secure Renegotiation IS NOT supported
Compression: NONE
Expansion: NONE
No ALPN negotiated
ну и вообще, бинарник не слинкован с libssl

Google

Vsevolod
03.10.2018
09:02:55
где я дурак?
pmap тоже не показывает, что libssl куда-то замаплен
похоже, libssl используется вкомпилированный статически

Michal
03.10.2018
09:20:05
похоже, libssl используется вкомпилированный статически
угу. В КХ почти все что можно было влинковать статически влинковано. Можно пересобрать с флагами -DUNBUNDLED=1 -DUSE_STATIC_LIBRARIES=0 и вроде бы все должно работать. См. https://github.com/yandex/ClickHouse/blob/master/utils/build/build_debian_unbundled.sh

Vsevolod
03.10.2018
09:29:25
в общем, причина проблемы была в dhparams
openssl s_client -connect localhost:8443 -debug -cipher 'AECDH-AES256-SHA' - вот так работало и без dhparams
я попробовал ключ сменить с rsa на ecc - не помогло
затем сгенерировал dhparams, и оно взлетело без явного указания cipher со стороны клиента
ох, пришлось еще и ключ с rsa поменять на ecc, а еще есть подозрение, что в сертификате не хватало CA сертификата

Alexander
03.10.2018
09:51:55
Товарищи, подскажите статью по то, как СH работает с памятью, настройки и проч?
Вообще как оптимизировать CH под конкретное железо.

Wolf
03.10.2018
09:52:22
оно само )

Michal
03.10.2018
10:22:46

Alexander
03.10.2018
10:23:01
Спасибо, почитаю

tony
03.10.2018
10:27:18
Товарищи, приветствую всех! Помогите с проблемой, нашёл решение текущих задач в виде использования ClickHouse, но при изучении наткнулся на ряд непонятных моментов, окажите посильную помощь, например использования HTTP интерфейса.
Я правильно понимаю, что он может не только localhost?
Если да, то как скорректировать конфиг сервера для доступа из вне?
ClickHouse server version 18.10.3 revision 54405.


Vladimir
03.10.2018
10:28:54
<!-- List of networks with open access.
To open access from everywhere, specify:
<ip>::/0</ip>
To open access only from localhost, specify:
<ip>::1</ip>
<ip>127.0.0.1</ip>
Each element of list has one of the following forms:
<ip> IP-address or network mask. Examples: 213.180.204.3 or 10.0.0.1/8 or 10.0.0.1/255.255.255.0
2a02:6b8::3 or 2a02:6b8::3/64 or 2a02:6b8::3/ffff:ffff:ffff:ffff::.
<host> Hostname. Example: server01.yandex.ru.
To check access, DNS query is performed, and all received addresses compared to peer address.
<host_regexp> Regular expression for host names. Example, ^server\d\d-\d\d-\d\.yandex\.ru$
To check access, DNS PTR query is performed for peer address and then regexp is applied.
Then, for result of PTR query, another DNS query is performed and all received addresses compared to peer address.
Strongly recommended that regexp is ends with $
All results of DNS requests are cached till server restart.
-->
<networks incl="networks" replace="replace">
<ip>::/0</ip>
</networks>


prll
03.10.2018
10:29:13
listen_host

Лилия
03.10.2018
10:39:55
Привет. Прошу совета по задаче.
Есть необходимость считать активность за период по части пользователей - например, по 10% всех пользователей.
Есть вариант делать джойн с подзапросом
select distinct userId
from table_name
limit 10000
Есть ли менее затратный способ сделать то же самое?

papa
03.10.2018
10:43:35
если таблица сделана с поддержкой семплирования по юзерам, то from table sample 0.1

Google

papa
03.10.2018
10:44:21
или сделать семплирование руками, where hash(userid) < 0.1*max_value
но это будет по времени работать как полный запрос

tony
03.10.2018
10:49:59
@SneakyThrows @proller спасибо, буду разбираться

?
03.10.2018
11:13:37

prll
03.10.2018
11:18:40

tony
03.10.2018
11:19:34

Stepan
03.10.2018
11:36:48
всем привет. есть задачка, на ооооочень тормозное оборудование (4 ядра 8 гб памяти) выгрузить 3 таблички, в колоночном виде это примерно 3гб.
попробовал выгрузить первую (256 мб), сконвертировал в tsv, получился файл 1.5 гб, целиком он не лезет поэтому разложил его в файлики по 1000 строк. Но это самая маленькая таблица, а ведь есть еще на 1,2 гб и 1,5 гб в колоночном виде.
если я попробую загрузить это через нативный формат кликхаус не будет пытаться прожевать файл целиком и будет читать кусками или нет?
какой альтернативный способ перетащить данные? через freeze?

Wolf
03.10.2018
11:37:51
freeze и потом attach
ну или просто реплики табличек поднять на новом сервере

Stepan
03.10.2018
11:38:20
реплики не получится, спасибо

Stanislav
03.10.2018
11:38:26
Кстати, а r/o реплики возможны?
Хочу дублировать свежие записи в тестовую базу.
И, естественно, не хочу, чтоб из тестовой базы что-либо попадало в основную

Kirill
03.10.2018
11:39:44

Stanislav
03.10.2018
11:40:16
Ясно, только insert из select.

Wolf
03.10.2018
11:40:51

Stepan
03.10.2018
11:40:59

Wolf
03.10.2018
11:41:01

Stepan
03.10.2018
11:41:21

Google

Stanislav
03.10.2018
11:41:26
Не получится, это _тестовая_ база, а не нечто для хранения архива

Stepan
03.10.2018
11:41:27
задачка разовая

Wolf
03.10.2018
11:41:59
ну тогда фриз и аттач , быстро и эффективно

Kirill
03.10.2018
11:47:50

Denis
03.10.2018
11:52:39

?
03.10.2018
12:09:44
@kshvakov Кирилл, не подскажете, в каком формате массивные структуры из го-клиента в кафку удобней лить?

Ульяна
03.10.2018
12:14:00
Добрый день! Подскажите пожалуйста, можно ли поменять движок таблицы на 500 Гб с MergeTree на ReplacingMergeTree без создания новых таблиц и боли?

Alexey
03.10.2018
12:14:07
Подскажите пож, встречался кто с такой ошибкой при работе с ClickHouse через DataGrip?
Code: 158, e.displayText() = DB::Exception: Limit for rows to read exceeded: 1941192704 rows read (or to read), maximum: 1000000000, e.what() = DB::Exception

Alex
03.10.2018
12:18:14

Alexey
03.10.2018
12:21:28

V
03.10.2018
12:24:20
Всем привет! Подскажите пожалуйста насчет decimal типов, создаю новую БД и хочется уже их использовать. Они стабильны в части записи, мат. операций или лучше по старинке пока целыми обойтись? Кто использовал подскажите плиз...