
Aleksey
31.08.2018
10:27:52
Или оно само через какое-то время удалится?

Wolf
31.08.2018
10:28:27
после оптимайза старые смерженные парты должны удалиться

Алексей
31.08.2018
10:29:29
удалится примерно минут через 20

Mike
31.08.2018
10:30:29
к вопросу про удаление, если делать alter table delete where xx - через какое примерно время партиции должны пропасть, если удалены все данные, которые находились на этих партициях? или партиции так и останутся?

Google

Kirill
31.08.2018
10:31:39

Aleksey
31.08.2018
10:32:37
8 минут... Понятно, спасибо.

Kirill
31.08.2018
10:32:45
Сделано для того чтоб если электричество в машине пропадет, а новый парт еще из кеша на диск не упал то его можно было пересобрать

Aleksey
31.08.2018
10:33:06
Все-то вы учли :)

Kirill
31.08.2018
10:33:30
Это не я )

Aleksey
31.08.2018
10:35:36
Упс)
Да, место осободилось.
Норм так 250Г упихались в 20Г

molo4ko
31.08.2018
11:29:22
а нет ли способа заставить словарь обновиться снаружи?

Vladimir
31.08.2018
11:31:06

molo4ko
31.08.2018
11:31:25
о, спасибо)

Denis
31.08.2018
11:36:58

Vadim
31.08.2018
11:38:16

Google

Alexander
31.08.2018
11:39:14

Vadim
31.08.2018
11:40:18
да:
CREATE TABLE graphite ( Path String, Value Float64, Time UInt32, Date Date, Timestamp UInt32)ENGINE = ReplicatedGraphiteMergeTree('/clickhouse/tables/{shard}/graphite', '{replica}', Date, (Path, Time), 32768, 'graphite_rollup');

Denis
31.08.2018
11:53:49
Какая разница, явно же данные во всех партициях есть для условия WHERE Path like 'DevOps.clickhouse.oldhost.%', т.е. перезаписать надо все.

Alexander
31.08.2018
12:08:17

RUNET
31.08.2018
12:16:36
Как то странно отрабатывает запрос в mysql из кх.
В условии WHERE (is_campaign=0) AND (active=1)
В логах mysql вижу такой запрос WHERE (is_campaign = 0, active = 1)
Никто не сталкивался?
ClickHouse server version 18.6.0 revision 54401
p.s. понял, в кх запрос like, в mysql уже без него приходит

Tima
31.08.2018
12:21:56
Там проблема не именно в match, а в вот такой страной трансформации как у вас

RUNET
31.08.2018
12:23:38
а в логах что пишет ? (mysql)
я пока выяснил что такое только с like происходит, убираю его и все ок.
Я сталкивался
https://github.com/yandex/ClickHouse/issues/2384

Alexey
31.08.2018
12:45:16
FYI
@Alexander_Anisimov А когда будет видео с митапа в Санкт-Петербурге?
На следующей неделе должно быть. Скорее всего ближе к среде.

Aleksandr
31.08.2018
13:42:01
Приветствую. Ребят подскажите пожалуйста такой момент, как лучше данные перелить со старого кластера на новый не имея общего zookeeper ?
то есть есть 2 кластера которые между собой никак не пересекаются и нужно как то данные перелить с 1 кластера на 2

Stanislav
31.08.2018
13:43:39
создать идентичные по полям таблицы и сделать insert into ... select ...

Aleksandr
31.08.2018
13:44:28
это мне ответ?
если да то не получится, потому что эти кластеры друг о друге не знают ничего

Stanislav
31.08.2018
13:48:52
select * from remote
доступ к чужому зукиперу для такого не нужен
https://clickhouse.yandex/docs/en/query_language/table_functions/remote/

Google

Stanislav
31.08.2018
13:50:58
я примерно так же готовлю данные для тестового кластера из прода

Aleksandr
31.08.2018
13:51:45
не большое уточнение, новый класстер это новая группа серверов находящаяся в другом ДЦ

Stanislav
31.08.2018
13:53:24
Ну тогда либо организовать канал, либо делать через FREEZE копию данных, которую передавать другими средствами
В обоих случаях - создать идентичные по структуре таблицы

Aleksandr
31.08.2018
13:54:03
как раз и думал в сторону фриз или детач старых партиций а потом новую сдампить как то в виде SQL
по поводу таблиц это понятно

Stanislav
31.08.2018
13:54:41
Лучше всё же таки организовать канал...

Antowa
31.08.2018
14:55:05
Всем привет. Не совсем понял из документации, если в настройках в блоке compression ничего не указывать, то по дефолту будет использоваться lz4, или компрессия не будет использоваться вообще?

Andrew
31.08.2018
15:02:40
lz4


⚓️Alexander
31.08.2018
15:48:43
Добрый вечер, в документации источника внешнего словаря по http:
https://clickhouse.yandex/docs/ru/query_language/dicts/external_dicts_dict_sources/#dicts-external_dicts_dict_sources-http
написано, что «Если тип размещения словаря cache и complex_key_cache, то ClickHouse запрашивает необходимые ключи, отправляя запрос методом POST» Можете пожалуйста разъяснить этот момент поподробнее, сейчас сделал внешний словарь на http сервер, и при его использовании на сервер приходит пустой POST запрос.
<yandex>
<dictionary>
<name>ext_test</name>
<source>
<http>
<url>http://localhost/dict.php</url>
<format>TabSeparated</format>
</http>
</source>
<layout>
<cache>
<size_in_cells>10000</size_in_cells>
</cache>
</layout>
<structure>
<id>
<name>ip</name>
</id>
<attribute>
<name>city_id</name>
<type>UInt64</type>
<null_value>0</null_value>
</attribute>
</structure>
<lifetime>3600</lifetime>
</dictionary>
</yandex>
select toUInt64(ip),dictGetUInt64('ext_test','city_id',toUInt64(ip)) city_id FROM test.test where hour = 426517 LIMIT 10


Alexey
31.08.2018
18:21:24

Alexey
01.09.2018
21:55:26
А скажите можно искать последовательность в массиве целых?
Подмассив в массиве

Victor
01.09.2018
21:59:14
кстати, такой вопрос.
Ранее в чате писали, что массивы это сахар,

molo4ko
01.09.2018
23:26:24
А какие настройки отвечают за коммуникацию с зк? Интересуют реконнекты и т.д. Заметил, что время от времени session has expired и таблица переходит в readonly, но на протяжении нескольких минут нет реконнектов, хотя другие ноды кластера в порядке.
1.1.54385

Denis
02.09.2018
01:52:24

molo4ko
02.09.2018
02:13:26
супер, спасибо

Alexey
02.09.2018
06:04:21

molo4ko
02.09.2018
06:04:42
у нас отдельно

Alexey
02.09.2018
06:05:14
?

Google

Evgeniy
02.09.2018
08:04:42
Скажите если хочу excel в качестве клиента , то путь один-odbc ? Или есть еще что-то ?

prll
02.09.2018
10:47:21
может быть можно каким нибудь встроеным басиком ходить в кликхаус по http и парсить ответы, но если настроить нужно за пять минут - то odbc

Evgeniy
02.09.2018
11:28:39

Antony
02.09.2018
11:49:25
Всем привет! Может кто сталкивался: заливаю через клиент данные из csv накопленные за несколько дней, кх никаких ошибок не кидает, все ок, смотрю результат - количество строк в ряде дней отличается от кол-ва строк за эти дни в csv! Пробую загрузить только за косячный день, все загружает, результат совпадает. Такое ощущение, что когда грузишь пачкой из цсв, ряд строк выкидывается. Движок обычный мердж три

Dmitry
02.09.2018
12:04:50

Antony
02.09.2018
12:06:36

Sergey
02.09.2018
12:52:25
А включен ли deduplication?
У нас было похожее, правда, через драйвер. И не уверен, что проблема точно была в DD, но пропала после того, как отключили.

prll
02.09.2018
13:03:25

Evgeniy
02.09.2018
13:06:23
Но зачем ? Чем одбц плох ?
1) его нужно ставить под админом - а в корпоративном г. проще иногда отказать от софта чему убедить кучу бюрократов что это не вирус
2) odbc - максимум что позволяет - это накрутить сводные таблицы - а у меня задача в разы шире чем простой пивот

G
02.09.2018
22:00:10
Коллеги, как хранить большие целые числа в CH? больше 20 знаков, ETH (WEI). Надо будет фин. операции выполнять sum, min, max и тп. Любые идеи пожалуйста

Michal
03.09.2018
05:07:45
А скажите можно искать последовательность в массиве целых?
Если int64 недостаточно (макс значение для знакового 9223372036854775807), а float использовать нельзя (тут деньги), то вариантов немного - 1) подождать релиза Decimal, вроде как уже в мастере - попробуйте в тестовой версии, он там на 128 битных интах работает. 2) поразрядно хранить и обрабатывать - просто хранение - без проблем, но арифметика будет утомительна из-за ручного обслуживания переполнений.

G
03.09.2018
05:19:53
За decimal спасибо, проверим
Да арифметика нужна

Eduard
03.09.2018
06:33:51
нужно ли увеличивать max_memory_usage, для серверов с 64G?

Evgeny
03.09.2018
06:35:29
Чем больше дать памяти, тем лучше)

Eduard
03.09.2018
06:38:30
вроде как это лимит на один запрос, думал может есть какая-то формула от общего размера базы

Evgeny
03.09.2018
06:40:23

Egor
03.09.2018
07:30:20
Приветы. Что может быть не так? В логах пишет
2018.09.03 07:29:13.064327 [ 25 ] <Trace> StorageKafka (queue): EOF reached for partition 0 offset 205836
это означает что он не получил все данные? или что?

Ivan
03.09.2018
07:32:38

Google

Andrii
03.09.2018
07:33:21
Доброго дня. Подскажите как быть, КХ генерит ~10 гб данных в день, за пару месяцев забивает диск сервака под завязку. Может кто автоматизировал процесс деатача старых данных и их отправку в долгосрочное хранилище? Либо есть какие-то практики как поступать в подобных случаях?

Egor
03.09.2018
07:35:45
Выглядит просто как отладочное логирование
Раньше все работало, но решил поменять схему (т.е. формат логов), на нгинсе сделал новый формат, перезапустил, в кафке удалил все старые очереди, в кликхаусе все грохнул, запустил заново, создал базу, таблицы и...пусто. Кажетсядаже до энжайна кафки в КХ не доходят данные, в саму кафку данные падают, вижу в тспдампе. А как посмотреть в самом кликхаусе не знаю, кроме тупо селект с лимитом. А там пустота
Но где заковырка?


Bogdan
03.09.2018
07:47:32
коллеги, подскажите пожалуйста, есть ли способ заполнять нулями отсутствующие данные при группировке по времени? в инфлюксе например есть функция fill(0) при группировке по времени, в кликхаусе подобной функции нет, но есть костыль в виде union all (https://stackoverflow.com/questions/50238568/how-to-group-by-time-bucket-in-clickhouse-and-fill-missing-data-with-nulls-0s)
этот вариант хорош, но только тогда когда группировка происходит только по времени и всё, но что делать если там ещё по трём string полям дополнительно группировка происходит?

Dmitry
03.09.2018
08:20:43
Как получить версию CH через запрос? ввожу version(), show version() но все выдает ошибку.

Antowa
03.09.2018
08:22:28
А у меня снова вопрос по компрессии. LZ4 по дефолту включалась всегда, или только начиная с какой-то версии? Возможен ли вариант, что база была создана ещё до введения сжатия, и сейчас существует в несжатом виде? Как таковой information_schema, похоже, не существует, и какую-то информацию о базах и столбцах черпать неоткуда. Или я ошибаюсь?