
molo4ko
17.01.2018
18:59:29
в доках нет
какая сигнатура?

papa
17.01.2018
19:00:25
select x, uniqIf(y, y in (1,3)) as y1, uniqIf(y,y in (0,2)) from table group by x having y1=2 or y2=2
https://clickhouse.yandex/docs/en/agg_functions/combinators.html

Google

molo4ko
17.01.2018
19:07:26
о, понял логику
супер, спасибо

Vitaliy
17.01.2018
21:32:23

Alexey
17.01.2018
21:41:02
https://github.com/yandex/ClickHouse/commit/6b17dbbe211b37f598816367b2d5c3e33929cee9
- там сверху список релизов.

Vitaliy
17.01.2018
21:49:15
поделитесь, плиз, статой - какой у вас средний батч получается при записи? (в мбайтах и строках)

Support
17.01.2018
22:01:54
Как скоро появиться changelog ?

Tima
17.01.2018
22:06:36

Vitaliy
17.01.2018
22:17:01

Tima
17.01.2018
22:20:32
В режиме перезаливки всех данных - раз 5-7 секунд. А в обычном - фиг его, примерно раз в 30-60 секунд (так настроен таймер ожидания заполнения батча в 25к записей)

Alexey
17.01.2018
22:58:14

Support
17.01.2018
23:06:23
Надеюсь там что то будет связанное с обновлением и удалением

Андрей
18.01.2018
00:48:59
Сказали, что тормозит CH. Даже медленее mysql, говорят
https://habrahabr.ru/post/346884/

GithubReleases
18.01.2018
01:29:35
https://github.com/yandex/ClickHouse/releases/v1.1.54337-stable was tagged

Google

Alexey
18.01.2018
01:32:05

Andrey
18.01.2018
01:54:13

Alexey
18.01.2018
02:32:36
https://github.com/yandex/ClickHouse/blob/master/CHANGELOG_RU.md

Aliaksei
18.01.2018
03:58:21
Подойдет ли мне clickhouse для такой вот db схемы https://github.com/dpiekacz/gixlg/blob/master/sql/gixlg.sql ? Там есть поле community` text NOT NULL, и neighbor` varchar(39) NOT NULL по ним ожидаются досточно часто запросы вида LIKE '%aaaa%'.

Evgenii
18.01.2018
06:56:57
Спасибо еще раз за патч работы с systemd, контейнер с 1.1.54337 собрался без проблем

Vladimir
18.01.2018
07:48:57
https://github.com/yandex/ClickHouse/blob/master/dbms/src/Core/Block.cpp#L146
Всем привет, вот тут есть искючение -
throw Exception("Position " + toString(position) + " is out of bound in Block::safeGetByPosition(), max position =
и оно у нас возникает, а раньше не возникал. Это с чем может быть связано? Где-то в настройках задается
size_t position
?
Кластер состоит из 2 шардов по 2 реплики. Когда отрубаешь один шард, то такой ошибки нет. Запрос имеет конструкцию UNION ALL

Артем
18.01.2018
08:34:26
Добрый день, может кто сталкивался с такой проблемой, пытаюсь настроить DSN для использования ODBC коннектора, но при создание вываливается такая ошибка
Не удается загрузить указанный драйвер из-за системной ошибки 126: Не найден указанный модуль. (ClickHouse ANSI, C:\Program Files\ClickHouse ODBC\clickhouseodbc.dll)
Во вкладке драйвера, Clickhouse ANSI и Clickhouse Unicode присутствуют

ReRo
18.01.2018
08:39:56
Всем привет, а есть аналог FOUND_ROWS(), когда надо получить кол-во записей без LIMIT ? Без второго запроса count(*)

Yuri
18.01.2018
09:06:26
а есть у best practice по хранению IPv6 ? в примерах FixedString(16), что как-то подзрительно на фоне того, что IPv4 хранится целоцисленным полем

Andrew
18.01.2018
09:17:49

Yuri
18.01.2018
09:19:39

Mike
18.01.2018
11:13:22
Коллеги, подскажите куда посмотреть, валится сборка на линковке, центос 6
[ 67%] Building CXX object dbms/src/Common/ZooKeeper/tests/CMakeFiles/zkutil_test_commands.dir/zkutil_test_commands.cpp.o
Scanning dependencies of target zkutil_test_async
/usr/lib/../lib64/libssl.a(kssl.o): In function `kssl_validate_times':
(.text+0x1fe): undefined reference to `krb5_init_context'
/usr/lib/../lib64/libssl.a(kssl.o): In function `kssl_validate_times':
(.text+0x22e): undefined reference to `krb5_rc_default'
/usr/lib/../lib64/libssl.a(kssl.o): In function `kssl_validate_times':
При этом
strings /usr/lib/../lib64/libssl.a | grep kssl_validate_times
kssl_validate_times
kssl_validate_times
kssl_validate_times

Stanislav
18.01.2018
11:33:03
krb5-devel или что-то похожее отсутствует, по-моему.

prll
18.01.2018
11:42:48
Там же сломанный pkgconfig не показывает krb в зависимости у openssl
Или просто отсутствие krb.a и придется собирать опенссл руками

Google

Илья
18.01.2018
12:04:18
Заранее извините, а как правильно переехать с движка SummingMergeTree на MergeTree? т.е. сейчас есть поле со счётчиком количества записей, требуется, видимо, сделать дубли. записей около 50млн.

Alexey
18.01.2018
13:05:17
а зачем дубли делать? значения счетчика же переедут как есть

Илья
18.01.2018
13:11:32
задача как раз избавиться от счётчика, ибо в mergeTree он не используется

Stanislav
18.01.2018
13:15:01
Кстати о счётчиках. Примерно как можно получить аналог графитовского nonNegativeDerivative для графаны?

Alexey
18.01.2018
13:17:38
то есть у вас строка в SummingMergeTree с счетчиком 47, и вы хотите в MergeTree сделать 47 таких строк?

Илья
18.01.2018
13:19:20
да, в последствии значение в одном из полей будет различаться. сейчас оно "схлопывается" и не можем получать требуемые данные. с потерями до текущего момента готовы смириться, но надо как то движок сменить и дальше считать уже верно

Alexey
18.01.2018
13:20:16
ну тут парой запросов sql не обойдешься думаю, надо скриптик наваять
который выселекчивает строку из SummingMergeTree и делает n-ое колво инсертов в MergeTree
ну или дамп такой нагенерить, а потом просто вставить его

Илья
18.01.2018
13:22:04
я думал может есть какой-то более правильный способ

Alexey
18.01.2018
13:22:19
самое главное во что выльется 50 млн, в 200 млн или 20 млрд =)

Илья
18.01.2018
13:24:42
надеюсь в 20млрд - рост и развитие системы это всегда хорошо :) а по факту - значения счётчиков небольшие, столбцов в таблице крохи

Oleh
18.01.2018
13:51:58
Всем привет. Вопрос по median и quantile. Я сделал аггрегацию запросов по 15 минут, и в полях у меня хранятся median и quantile значения. По этим данным мне нужно еще раз сделать аггрегацию уже за день. Как в таком случае считать медиану медиан? Просто делать снова median значения которое уже и так медиана?

papa
18.01.2018
13:53:44
при некотроых предположениях это работать будет, но в общем случае можно придумать контрпример.

Mikhail
18.01.2018
13:53:53
а как вообще можно выпилить логи в сислог? ?

Phil
18.01.2018
13:55:20
Коллеги,
я правильно понимаю, что колонка вида Array(Enum(...)) для хранения системных тегов - плохая идея, так как расширить количество тегов не получится?
ALTER TABLE изменить описание Enum внутри Array не сможет?
Или для запросов вида has() по очень маленьким массивам Array(String) и так работает быстро?

Natalya
18.01.2018
13:59:07


Konstantin
18.01.2018
14:02:44
Коллеги, подскажите что не так — пытаюсь импортить из kafka https://clickhouse.yandex/docs/ru/table_engines/kafka.html для теста взял таблицу из доки (`queue`, пока только эту), отправляю в топик {"timestamp": "2018-01-18 13:55:50", "message": "M5VYMOSLMLI6QBG1JM44QTG2GDV9RV1SJEKRTKEMEL", "level": "87”}, делаю селект SELECT * FROM queue LIMIT 5;, а в ответ получаю Received exception from server (version 1.1.54337): Code: 72. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Unsigned type must not contain '-' symbol: (at row 1)

Артем
18.01.2018
14:06:27
Коллеги, а можно каким то другим способом добавить пользователей для работы с кликхаусом, кроме как добавления в файл users.xml ?

Artiom
18.01.2018
14:06:34

Google

Artiom
18.01.2018
14:06:53
вот он и не хочет принимать "2018-01-18 13:55:50" в качестве Uint-а

Oleh
18.01.2018
14:10:01

Natalya
18.01.2018
14:12:04
далее при необходимости доагрегируем массивы groupArrayArray (если нужен интервал за 5 минут, например)
и в получившемся массиве quantileArray

Konstantin
18.01.2018
14:13:30

Vyacheslav
18.01.2018
14:24:35

Arkady
18.01.2018
16:05:12
Привет!
У нас вот такой вопрос про кликхаус. Я хочу выполнить запрос
INSERT INTO t(day, id, val) VALUES
('2017-01-01', 1, 1),
('2017-01-02', 2, 2),
('2017-01-03', 3, 3),
....
('2017-01-04', 4, 4),
('2017-01-05', 5, 5),
('2017-01-06', 6, 6);
Может ли случиться так, что кликхаус половину строк вставит, а другую половину - нет, по любой причине?
Или один запрос, если выполнился, то выполнился полностью?

Олег Иванович
18.01.2018
16:08:02

Дмитрий
18.01.2018
16:09:12
Привет!
У нас вот такой вопрос про кликхаус. Я хочу выполнить запрос
INSERT INTO t(day, id, val) VALUES
('2017-01-01', 1, 1),
('2017-01-02', 2, 2),
('2017-01-03', 3, 3),
....
('2017-01-04', 4, 4),
('2017-01-05', 5, 5),
('2017-01-06', 6, 6);
Может ли случиться так, что кликхаус половину строк вставит, а другую половину - нет, по любой причине?
Или один запрос, если выполнился, то выполнился полностью?
Если запрос выполнился то данные вставятся. Если не выполнился или выполнился не до конца, то попасть может только часть данных. Зависит от кол-ва данных.

Arkady
18.01.2018
16:10:11
ок. То есть могут попасть не все данные, это я и хотел выяснить. Спасибо

Дмитрий
18.01.2018
16:12:03
Если ничего не менялось, то вставки размером до 1024 ^ 2 будут атомарны.

Alexander
18.01.2018
16:18:28

Mariya
18.01.2018
16:22:43
Привет всем!
В качестве минуты рекламы: мы ищем в команду Яндекс.Метрики нового аналитика, которому предоставиться возможность подружиться с нашим кластером ClickHouse и искать ответы на все вопросы мироздания среди петабайтов данных.
Посмотреть полное описание вакансии и отправить резюме можно тут - http://bit.ly/metrika_analyst_ch
Если вы ждали удобного случая, чтобы попробоваться на вакансию в Яндекс, то это он :)

strange
18.01.2018
16:23:10
"залезай в метрикин кластер, синдзи"

Stanislav
18.01.2018
17:02:28
официальная документация на сайте как часто обновляется?

Eugene
18.01.2018
17:34:39
Всем привет.
Среди участников группы есть seo-специалисты?

Roman
18.01.2018
18:11:28
Всем привет
После обновления до последней версии (1.1.54337) в лог стали сыпаться ошибки Part 20180114_20180118_37045_37045_0 from own log doesn't exist.
Возможно ли как то откатиться на предыдущую 1.1.54327 версию? В ней подобных ошибок не наблюдалось

Alexey
18.01.2018
18:32:18

Roman
18.01.2018
18:33:04

Google

Alexey
18.01.2018
18:35:19
официальная документация на сайте как часто обновляется?
До сих пор было очень редко (месяцы - из-за изменений в инфраструктуре).
Недавно обновили (пару дней назад) и сейчас будем стараться обновлять чаще.
Ещё решаются некоторые проблемы (например, небольшая часть фрагментов оказалась без перевода).

Roman
18.01.2018
18:45:30

Alexey
18.01.2018
18:46:03
Сделайте на всякий случай grep по логу 20180114_20180118_37045_37045_0 и пришлите в личку.


Roman
18.01.2018
18:52:55
также заметил, что на второй реплике сыпятся ошибки
2018.01.18 18:20:01.873380 [ 1 ] <Error> Application: DB::Exception: Cannot lock file /mnt/internal/clickhouse/status. Another server instance in same directory is already running.
2018.01.18 18:30:02.364973 [ 1 ] <Error> Application: DB::Exception: Cannot lock file /mnt/internal/clickhouse/status. Another server instance in same directory is already running.
2018.01.18 18:40:01.514314 [ 1 ] <Error> Application: DB::Exception: Cannot lock file /mnt/internal/clickhouse/status. Another server instance in same directory is already running.
хотя при это сервер работает
ubuntu@ip-172-31-2-168:~$ sudo service clickhouse-server status
● clickhouse-server.service - ClickHouse Server (analytic DBMS for big data)
Loaded: loaded (/etc/systemd/system/clickhouse-server.service; enabled; vendor preset: enabled)
Active: active (running) since Thu 2018-01-18 16:22:51 UTC; 2h 29min ago

prll
18.01.2018
18:55:49
а что в логе?

Alexey
18.01.2018
18:56:22
> Another server instance in same directory is already running.
Это значит, что пытается запуститься два инстанса сервера. Внутри есть защита и это не разрешается. Значит что-то неправильно с конфигурацией. А почему используется systemd?

Max
18.01.2018
18:56:41
@milovidov_an Нет ли информации по это проблеме?

Alexey
18.01.2018
18:57:07

Max
18.01.2018
18:57:22
Мы писали детали как воспроизведения если что

Alexey
18.01.2018
18:57:29
Детали есть.

Max
18.01.2018
18:57:36
этот и следуюший коммент
ок, спасибо.


Roman
18.01.2018
18:58:34
В логе
2018.01.18 18:50:01.460840 [ 1 ] <Information> : Starting daemon with revision 54337
2018.01.18 18:50:01.466940 [ 1 ] <Information> Application: starting up
2018.01.18 18:50:01.524509 [ 1 ] <Trace> ZooKeeper: initialized, hosts: internal.zookeeper-1.xxx:2181,internal.zookeeper-3.xxx:2181,internal.zookeeper-2.xxx:2181
2018.01.18 18:50:01.524595 [ 1 ] <Information> StatusFile: Status file /mnt/internal/clickhouse/status already exists - unclean restart. Contents:
PID: 3845
Started at: 2018-01-18 17:31:20
Revision: 54337
2018.01.18 18:50:01.524980 [ 1 ] <Error> Application: DB::Exception: Cannot lock file /mnt/internal/clickhouse/status. Another server instance in same directory is already running.
2018.01.18 18:50:01.524996 [ 1 ] <Information> Application: shutting down
2018.01.18 18:50:01.525004 [ 1 ] <Debug> Application: Uninitializing subsystem: Logging Subsystem
2018.01.18 18:50:01.525096 [ 1 ] <Information> ~ZooKeeper: Closing ZooKeeper session
2018.01.18 18:50:01.525196 [ 1 ] <Information> ~ZooKeeper: Removing 0 watches
2018.01.18 18:50:01.525226 [ 1 ] <Information> ~ZooKeeper: Removed watches
2018.01.18 18:50:01.525268 [ 2 ] <Information> BaseDaemon: Stop SignalListener thread


Alexey
18.01.2018
19:03:07