Дмитрий
16.02.2018
14:47:38
Как есть вообще без вариантов?
Alexey
16.02.2018
14:48:02
В атрибутах можно добавить expression - произвольное выражение, которое вставляется в SELECT при загрузке данных. Пример:
<name>EndDate</name>
<expression>DATE(EndDate)</expression>
Дмитрий
16.02.2018
14:48:32
О! Попробую
Работает!
<attribute>
<name>token</name>
<expression>cast(token AS VARCHAR)</expression>
<type>String</type>
<null_value></null_value>
</attribute>
Огромное спасибо!
Google
Alexey
16.02.2018
14:53:28
Kirill
16.02.2018
14:55:03
Alexey
16.02.2018
14:55:05
Kirill
16.02.2018
14:58:52
хмм, кажется еще более подробно разобрался, сообщения с кафки тянутся отлично, в кафкаэнджайн ложатся, НО, материалайзед вью хавает с него, но почему то флушит только раз в таблицу
Можно хоть минимальный кейс, вроде: создаем таблицу, вешаем materialized view которое читает с kafka engine, пишем в кафку столько-то строк и получаем не то что ожидаем, ожидаемое поведение такое-то, а получаем вот это. Можно не на GitHub, а в личку
Sergey
16.02.2018
15:13:40
у меня в 1.1.54342 вроде норм все
antuan
16.02.2018
16:02:20
Alexey
16.02.2018
17:06:20
antuan
16.02.2018
17:10:18
Maxim
17.02.2018
10:06:31
народ, такой вопрос. а при использовании таблицы buffer может ли результат запроса отличаться от раза к разу?
Stanislav
17.02.2018
10:13:57
у меня меняется, но у меня 3 реплики с независимыми буферами на каждой
то есть, невозможно предсказать, на какой запрос придёт инсерт и с какого буфера будет селект
Maxim
17.02.2018
10:18:54
ну у меня нет реплики, пока только разбираюсь
Google
Maxim
17.02.2018
10:38:28
ну вот, все как в большинстве случаев. это не продукт работает не так, а руки не оттуда.. вопрос снят
?
17.02.2018
11:12:10
подскажите, какой тип движка взять для небольшой по количеству строк таблицы (15 к примерно) но с одним тяжелым полем (SomeData строка размеров 15-30кб) где выборка по SomeID. Set вроде не подходит потому что надо селекты делать и в памяти все держать не охота. Структура такая:
SomeID UInt32,
SomeData String,
Count UInt32
Гаврилов
17.02.2018
11:12:58
а зачем тут кликхаус?
если память не нужна, выборка по id
?
17.02.2018
11:13:25
ну потому что данные тянутся оттуда и я не хочу в инфраструктуру еще одну базу тянуть
Гаврилов
17.02.2018
11:13:48
я думаю это архитектурный косяк
?
17.02.2018
11:15:19
это стартап, тут все архитектурный косяк ) мне проще сделать INSERT INTO ... SELECT SomeID, SomeData FROM mainlog .... чем заниматься перекидыванием туда-сюда, тут все на ходу переделывается
Гаврилов
17.02.2018
11:19:14
а потом этот стартап с этими косяками в крупный проект вырастет
и будут люди через пару лет много разных слов про тебя говорить
?
17.02.2018
11:21:36
дай-то бог ) сейчас мне надо быстро проверить одну гипотезу, и вот я начну ставить прогресс, разбираться как перекидывать выборки, синхронизировать, тыр-пыр..
надо из глины и палок быстро сделать )
antuan
17.02.2018
11:35:33
без перекидывания туда-сюда
только "туда"
?
17.02.2018
11:36:49
да спасибо, но я уже добавил Date и в него today() )
antuan
17.02.2018
11:38:25
вам же хуже)
потом обновлять захотите ещё
?
17.02.2018
11:39:46
а с обновлением проблем не вижу вроде бы
хотя словари поковыряю обязательно, выглядит интересно
Aleksandr
17.02.2018
19:29:18
А куда пропало видео доклада «что такое кликхаус»?
Dmitry
17.02.2018
21:36:42
Я заметил такую штуку, что логи хочется по умолчанию сортировать в обратном порядке. А эта сортировка люто тормозит весь запрос. Есть какие-нибудь фишки, чтобы ее ускорить или по дефолту в MergeTree выставить хитрый индекс?
Google
Ilya
17.02.2018
21:39:29
Dmitry
17.02.2018
21:49:42
N-timestamp? Я запилил обычный timestamp с миллисекундами в int64. Но вместе с ним есть ещё поля типа user ID и строка. И без сортировки 0.014ms, а с сортировкой 5s. И вот было бы круто если бы они "лежали в индексе" по убыванию даты. И выдавали те же миллисекунды, так как для логов это практически всегда самая актуальная сортировка по дефолту
Дмитрий
17.02.2018
22:05:47
Ilya
18.02.2018
00:32:48
Egor
18.02.2018
03:30:09
Приветы. В какую сторону копать, т.е. есть ли встроенная фича такая: есть записи, около 20-30кк, но не так важно, надо эти записи отфильтровать по каким-либо полям и сохранить либо фильтр (как вьюшка) или сдампить в другую таблицу результат..
Задача: дать человеку доступ до определенных записей, а не до всей таблицы.
Как сделать?
Гаврилов
18.02.2018
04:55:13
Загрузить в постгрес и там настроить
Alexey
18.02.2018
05:02:41
Egor
18.02.2018
05:09:21
Alexey
18.02.2018
05:15:22
Изменения должны применяться без перезагрузки - для новых пользовательских соединений.
Dmitry
18.02.2018
05:22:23
Combot
18.02.2018
06:05:35
combot.org/chat/-1001080295593
Гаврилов
18.02.2018
06:13:58
/stat@combot
Combot
18.02.2018
06:14:00
combot.org/chat/-1001080295593
Slach
18.02.2018
06:38:05
https://github.com/yandex/ClickHouse/pull/1922
о, прямо исторический момент =) Clickhouse все больше избавляется от родовых травм
@milovidov_an спасибо
Михаил
18.02.2018
07:21:40
/stat@combot
Combot
18.02.2018
07:21:41
combot.org/chat/-1001080295593
combot.org/chat/-1001080295593
Артемий
18.02.2018
11:02:45
Важный вопрос, а движок "ReplicatedReplacingMergeTree" будет реализован или может быть уже реализован?
Admin
Google
ᴬˡᵉˣᵉᵞ
18.02.2018
11:04:01
Давно реализован.
Артемий
18.02.2018
11:06:36
Пожалуйста, добавьте строчку с этим движком в документацию (https://clickhouse.yandex/docs/ru/table_engines/replication.html)
Andrey
18.02.2018
11:09:21
Артемий
18.02.2018
11:11:23
Надо создать fork?
Bulat
18.02.2018
11:12:04
и пулл-реквест
Артемий
18.02.2018
11:14:50
Спасибо)
Andrey
18.02.2018
11:15:11
Не делал так никогда)
Находим файл, нажимаем edit, вносим плавки и создаём пулл. Ребята очень активно и охотно их принимают
Артемий
18.02.2018
11:16:42
Vsevolod
18.02.2018
14:13:22
гм, а какой рекоммендуемый способ запуска tabbix без выставления кликхауса голой жопой в интернет?
Anton
18.02.2018
14:18:20
Vsevolod
18.02.2018
14:18:52
да хрен там, сам tabbix base auth не обучен делать
Гаврилов
18.02.2018
14:18:56
можно проксировать через жаву
tabbix же по http идет
Vsevolod
18.02.2018
14:22:59
то есть, галочка там есть, но она не работает
include credentials показывают base auth, но эти данные почему-то затем суются в ch с закономерным результатом
в общем, методом проб и ошибок установил, что надо включить pass credentials, а затем указать явно пользователя default, а также обрезать в nginx хедер Authorization: proxy_set_header Authorization "";
strange
18.02.2018
15:00:03
https конешно же?
Vsevolod
18.02.2018
15:01:37
ну да
Олег Иванович
19.02.2018
03:14:31
такой вопрос
когда примерно ожидать в релизе появления запросов UPDATE/DELETE ?
Google
Артемий
19.02.2018
04:59:35
Доброе утро!
2 вопроса к разработчикам или опытным пользователям CH:
1) Какой тип лучше указывать для domain (динамическая длина или нет, если нет то какая используется в проектах Метрики)? Аналогично, насолько приемлимо хранить URL без указания длины?
2) Максимальный размер записи (все столбцы) около 1500 байт. Размер индекса 130 байт (не включает тектовые данные). Планируется получать данные, идущие подряд от 20 шт.
Гранулированность индекса хочу задать 20 кб (всето по умолчанию 8кб). Таким образом, это должно снизить число поднимаемых кусочков, увеличить их рамзер и улучшить сжатие данных.
Данный подход верный? Насколько большим можно задавать гранулированность индекса (на практике планиурется получение данных идущих подряд по 200 шт.)?
Vadim
19.02.2018
05:59:57
Привет всем. Кто-то знает, как заставить КХ слать короткий hostname в собственных метриках ?
papa
19.02.2018
08:12:33
Артемий
19.02.2018
08:14:00
papa
19.02.2018
08:15:34
домен же разной длины бывает.
Wolf
19.02.2018
08:51:41
Почему зукипер может жаловаться что не может удалить блоки
2018-02-19 09:50:22,872 - INFO [ProcessThread(sid:2 cport:-1)::PrepRequestProcessor@651] - Got user-level KeeperException
when processing sessionid:0x2618998ca66000c type:setData cxid:0x5a8aa496 zxid:0x3000003f3 txntype:-1 reqpath:n/a Error Path
:/clickhouse/tables/2/events/block_numbers/201802/block-0000040761 Error:KeeperErrorCode = NoNode for /clickhouse/tables/2/
events/block_numbers/201802/block-0000040761