@clickhouse_ru

Страница 424 из 723
Дмитрий
16.02.2018
14:47:38
Как есть вообще без вариантов?

Alexey
16.02.2018
14:48:02
В атрибутах можно добавить expression - произвольное выражение, которое вставляется в SELECT при загрузке данных. Пример: <name>EndDate</name> <expression>DATE(EndDate)</expression>

Дмитрий
16.02.2018
14:48:32
О! Попробую

Работает! <attribute> <name>token</name> <expression>cast(token AS VARCHAR)</expression> <type>String</type> <null_value></null_value> </attribute> Огромное спасибо!

Google
Alexey
16.02.2018
14:53:28
Да, там после 54327 было много правок, можете оформить issue на github и сразу vavrusa можете в копию поставить
Нужно обязательно описание этого бага на GitHub. Дело в том, что без него шанс на исправление получается довольно низкий из-за того, что движок Kafka - сторонняя разработка, которая не используется в Яндексе, и для которой нет тестов.

Alexey
16.02.2018
14:55:05
Kirill
16.02.2018
14:58:52
хмм, кажется еще более подробно разобрался, сообщения с кафки тянутся отлично, в кафкаэнджайн ложатся, НО, материалайзед вью хавает с него, но почему то флушит только раз в таблицу
Можно хоть минимальный кейс, вроде: создаем таблицу, вешаем materialized view которое читает с kafka engine, пишем в кафку столько-то строк и получаем не то что ожидаем, ожидаемое поведение такое-то, а получаем вот это. Можно не на GitHub, а в личку

Sergey
16.02.2018
15:13:40
у меня в 1.1.54342 вроде норм все

antuan
16.02.2018
16:02:20
В атрибутах можно добавить expression - произвольное выражение, которое вставляется в SELECT при загрузке данных. Пример: <name>EndDate</name> <expression>DATE(EndDate)</expression>
Значит ли это, что теперь пгшные массивы тоже можно более или менее нормально обрабатывать, задавая для них в expression приведение к массиву? В какой версии это появилось?

Alexey
16.02.2018
17:06:20
Значит ли это, что теперь пгшные массивы тоже можно более или менее нормально обрабатывать, задавая для них в expression приведение к массиву? В какой версии это появилось?
Массивы в качестве значений для словарей не поддерживаются. Есть только менее эффективный способ - читать как строки, а затем преобразовывать (CAST) в массив. Но и с этим есть сложность - в том, что массивы в Postgres записываются чуть-чуть в другом виде. Если я правильно помню - в фигурных скобках.

antuan
16.02.2018
17:10:18
Maxim
17.02.2018
10:06:31
народ, такой вопрос. а при использовании таблицы buffer может ли результат запроса отличаться от раза к разу?

Stanislav
17.02.2018
10:13:57
у меня меняется, но у меня 3 реплики с независимыми буферами на каждой

то есть, невозможно предсказать, на какой запрос придёт инсерт и с какого буфера будет селект

Maxim
17.02.2018
10:18:54
ну у меня нет реплики, пока только разбираюсь

Google
Maxim
17.02.2018
10:38:28
ну вот, все как в большинстве случаев. это не продукт работает не так, а руки не оттуда.. вопрос снят

?
17.02.2018
11:12:10
подскажите, какой тип движка взять для небольшой по количеству строк таблицы (15 к примерно) но с одним тяжелым полем (SomeData строка размеров 15-30кб) где выборка по SomeID. Set вроде не подходит потому что надо селекты делать и в памяти все держать не охота. Структура такая: SomeID UInt32, SomeData String, Count UInt32

Гаврилов
17.02.2018
11:12:58
а зачем тут кликхаус?

если память не нужна, выборка по id

?
17.02.2018
11:13:25
ну потому что данные тянутся оттуда и я не хочу в инфраструктуру еще одну базу тянуть

Гаврилов
17.02.2018
11:13:48
я думаю это архитектурный косяк

?
17.02.2018
11:15:19
это стартап, тут все архитектурный косяк ) мне проще сделать INSERT INTO ... SELECT SomeID, SomeData FROM mainlog .... чем заниматься перекидыванием туда-сюда, тут все на ходу переделывается

Гаврилов
17.02.2018
11:19:14
а потом этот стартап с этими косяками в крупный проект вырастет

и будут люди через пару лет много разных слов про тебя говорить

?
17.02.2018
11:21:36
дай-то бог ) сейчас мне надо быстро проверить одну гипотезу, и вот я начну ставить прогресс, разбираться как перекидывать выборки, синхронизировать, тыр-пыр.. надо из глины и палок быстро сделать )

?
17.02.2018
11:36:49
да спасибо, но я уже добавил Date и в него today() )

antuan
17.02.2018
11:38:25
вам же хуже)

потом обновлять захотите ещё

?
17.02.2018
11:39:46
а с обновлением проблем не вижу вроде бы

хотя словари поковыряю обязательно, выглядит интересно

Aleksandr
17.02.2018
19:29:18
А куда пропало видео доклада «что такое кликхаус»?

Dmitry
17.02.2018
21:36:42
Я заметил такую штуку, что логи хочется по умолчанию сортировать в обратном порядке. А эта сортировка люто тормозит весь запрос. Есть какие-нибудь фишки, чтобы ее ускорить или по дефолту в MergeTree выставить хитрый индекс?

Google
Dmitry
17.02.2018
21:49:42
N-timestamp? Я запилил обычный timestamp с миллисекундами в int64. Но вместе с ним есть ещё поля типа user ID и строка. И без сортировки 0.014ms, а с сортировкой 5s. И вот было бы круто если бы они "лежали в индексе" по убыванию даты. И выдавали те же миллисекунды, так как для логов это практически всегда самая актуальная сортировка по дефолту

Egor
18.02.2018
03:30:09
Приветы. В какую сторону копать, т.е. есть ли встроенная фича такая: есть записи, около 20-30кк, но не так важно, надо эти записи отфильтровать по каким-либо полям и сохранить либо фильтр (как вьюшка) или сдампить в другую таблицу результат.. Задача: дать человеку доступ до определенных записей, а не до всей таблицы. Как сделать?

Гаврилов
18.02.2018
04:55:13
Загрузить в постгрес и там настроить

Alexey
18.02.2018
05:15:22
Изменения должны применяться без перезагрузки - для новых пользовательских соединений.

Dmitry
18.02.2018
05:22:23
Engine = MergeTree(timestamp (id), 8192) PARTITION BY toYYYYMM(timestamp) ORDER BY timestamp DESC ?
Очень похоже на то, что мне нужно. Большое спасибо - буду пробовать.

Combot
18.02.2018
06:05:35
combot.org/chat/-1001080295593

Гаврилов
18.02.2018
06:13:58
/stat@combot

Combot
18.02.2018
06:14:00
combot.org/chat/-1001080295593

Slach
18.02.2018
06:38:05
https://github.com/yandex/ClickHouse/pull/1922 о, прямо исторический момент =) Clickhouse все больше избавляется от родовых травм @milovidov_an спасибо

Михаил
18.02.2018
07:21:40
/stat@combot

Combot
18.02.2018
07:21:41
combot.org/chat/-1001080295593

combot.org/chat/-1001080295593

Артемий
18.02.2018
11:02:45
Важный вопрос, а движок "ReplicatedReplacingMergeTree" будет реализован или может быть уже реализован?

Admin


Google
ᴬˡᵉˣᵉᵞ
18.02.2018
11:04:01
Давно реализован.

Артемий
18.02.2018
11:06:36
Пожалуйста, добавьте строчку с этим движком в документацию (https://clickhouse.yandex/docs/ru/table_engines/replication.html)

Артемий
18.02.2018
11:11:23
Надо создать fork?

Bulat
18.02.2018
11:12:04
и пулл-реквест

Артемий
18.02.2018
11:14:50
Спасибо)

Andrey
18.02.2018
11:15:11
Не делал так никогда)
Находим файл, нажимаем edit, вносим плавки и создаём пулл. Ребята очень активно и охотно их принимают

Vsevolod
18.02.2018
14:13:22
гм, а какой рекоммендуемый способ запуска tabbix без выставления кликхауса голой жопой в интернет?

Vsevolod
18.02.2018
14:18:52
да хрен там, сам tabbix base auth не обучен делать

Гаврилов
18.02.2018
14:18:56
можно проксировать через жаву

tabbix же по http идет

Vsevolod
18.02.2018
14:22:59
то есть, галочка там есть, но она не работает

include credentials показывают base auth, но эти данные почему-то затем суются в ch с закономерным результатом

в общем, методом проб и ошибок установил, что надо включить pass credentials, а затем указать явно пользователя default, а также обрезать в nginx хедер Authorization: proxy_set_header Authorization "";

strange
18.02.2018
15:00:03
https конешно же?

Vsevolod
18.02.2018
15:01:37
ну да

Олег Иванович
19.02.2018
03:14:31
такой вопрос когда примерно ожидать в релизе появления запросов UPDATE/DELETE ?

Google
Артемий
19.02.2018
04:59:35
Доброе утро! 2 вопроса к разработчикам или опытным пользователям CH: 1) Какой тип лучше указывать для domain (динамическая длина или нет, если нет то какая используется в проектах Метрики)? Аналогично, насолько приемлимо хранить URL без указания длины? 2) Максимальный размер записи (все столбцы) около 1500 байт. Размер индекса 130 байт (не включает тектовые данные). Планируется получать данные, идущие подряд от 20 шт. Гранулированность индекса хочу задать 20 кб (всето по умолчанию 8кб). Таким образом, это должно снизить число поднимаемых кусочков, увеличить их рамзер и улучшить сжатие данных. Данный подход верный? Насколько большим можно задавать гранулированность индекса (на практике планиурется получение данных идущих подряд по 200 шт.)?

Vadim
19.02.2018
05:59:57
Привет всем. Кто-то знает, как заставить КХ слать короткий hostname в собственных метриках ?

Артемий
19.02.2018
08:14:00
papa
19.02.2018
08:15:34
домен же разной длины бывает.

Wolf
19.02.2018
08:51:41
Почему зукипер может жаловаться что не может удалить блоки

2018-02-19 09:50:22,872 - INFO [ProcessThread(sid:2 cport:-1)::PrepRequestProcessor@651] - Got user-level KeeperException when processing sessionid:0x2618998ca66000c type:setData cxid:0x5a8aa496 zxid:0x3000003f3 txntype:-1 reqpath:n/a Error Path :/clickhouse/tables/2/events/block_numbers/201802/block-0000040761 Error:KeeperErrorCode = NoNode for /clickhouse/tables/2/ events/block_numbers/201802/block-0000040761

Страница 424 из 723