
Kirill
11.05.2018
16:43:23
Спасибо!

Kirill
11.05.2018
17:14:50

Александр
11.05.2018
17:15:23

Kirill
11.05.2018
17:16:06
Я поднимаю в compose последний релиз

Google

Александр
11.05.2018
17:19:49
У нас нестандартный для кх кейс использования. А в последних версиях регрессия обработки вложенных подзапросов...причем ооооочень серьезная. Поэтому не обновляемся пока.

Alexandr
11.05.2018
17:39:14
Есть ли способ сделать так, чтобы distributed queries не передавались на определенный сервер вообще? Нужно для того, чтобы рестарт данного сервера проходил гладко и без exception при запросах, и после рестарта включить distributed queries обратно.

Aliaksandr
12.05.2018
04:08:02
После проведения maintenance на отключенной шарде возвращали ее на место в конфиг

Sergey
12.05.2018
09:56:37
привет всем а clickhouse-server который крутится на 8123 можно вытащить в инет в плане повесить его на конкретный интерфейс?
tcp 0 0 127.0.0.1:8123 0.0.0.0:* LISTEN 12049/clickhouse-se
сейчас

prll
12.05.2018
10:08:47
Прописать listen_host нужного интерфейса

Sergey
12.05.2018
10:13:12
да
нашел
listen_host
Ограничение по хостам, с которых может прийти запрос. Если необходимо, чтобы сервер отвечал всем, то надо указать ::.
странное описание в общем
то есть типа сюда хосты которые будут отправлять запросы

Google

Sergey
12.05.2018
10:14:22
а по факту выходит - хосты которые будут слушать запросы
=)

Wolf
12.05.2018
10:15:46

Sergey
12.05.2018
10:16:35
Ограничение по хостам, с которых может прийти запрос.
«с которых» а не на которые
и это не стандартная
все равно что написать что iptables ключ -s отвечает за назначение а не источник

Ivan
12.05.2018
10:30:35
подскажите почему запрос с агрегацией данных и с условием having и ограничением limit 1 вылетает с нехваткой оперативной памяти(результат же будет 1 строка, которая точно помещается в памяти)? Received exception from server (version 1.1.54370):
Code: 173. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Allocator: Cannot mmap 512.00 MiB., errno: 12, strerror: Cannot allocate memory.

Беслан
12.05.2018
10:31:04
Потому что по пути вычислений ему нехватило, видимо
Ведь одна строка из чего-то считается - он не может ее посчитать

Ivan
12.05.2018
10:33:02
SELECT
TransactionID,
Event,
Metadata,
count() AS cnt
FROM Table
WHERE TransactionID != ''
GROUP BY
TransactionID,
Event,
Metadata
HAVING cnt > 1
LIMIT 1
примерно такой запрос. А как с этим бороться?

Беслан
12.05.2018
10:34:16
Я же не знаю, что там за данные, сколько их
Может семплировать?

Ivan
12.05.2018
10:37:37

Беслан
12.05.2018
10:39:27
Семплирование - приблизительные вычисления. В доке есть, да

Ivan
12.05.2018
10:42:18
кликхаус крутится на виртуальной машине, у которой выделено 2Gb оперативки и 1 ядро. Т.е. далеко от параметров, которые описаны в справке, но до этого проблем не возникало с памятью. И вопрос возникает, а сколько нужно чтобы работало без проблем

Timur
12.05.2018
10:50:17
Вы конечно извините, но 2 Гб для аналитики это.... У меня на телефоне больше.
С учётом того что часть отъест ос.
Я начинаю с 64 Гб на ноду

Google

Timur
12.05.2018
10:54:19
Далее буду смотреть

Ivan
12.05.2018
10:54:43

Timur
12.05.2018
10:55:09
Д понимаю :) сам работал в таких условиях

Ivan
12.05.2018
10:55:48
можно увеличить до 8-16, не более. Но есть ли смысл?

Timur
12.05.2018
10:56:46
Имхо все зависит от нагрузки и дангых
Я не спец, только учусь.
Считаю что смысл есть, в доках написано про память

Wolf
12.05.2018
10:59:00
у меня кх крутится на 8 гигах оперативы , в целом хватает, но несколько шардов конечно
обьем оперативы собственно зависит от ваших хотелок к запросам
ставить 64 гига на простые запросы выборки по дате с легкой агрегацией смысла нет

Timur
12.05.2018
11:01:06
Что значит лёгкая агрегация? Звучит как лёгкая наркомания :) у всех разные данные и их количество...

Ivan
12.05.2018
11:01:23
хочется строить несложную аналитику с несколькими полями в group by и простым and отбором по нескольким полям(не индексированным в том числе)

Wolf
12.05.2018
11:01:28
ну по количеству пол триллиона ,
проще всего подобрать оперативу опытным путем
увеличьте с 2 гигов до 4

Timur
12.05.2018
11:02:15
Я в процессе etl сейчас, много это или мало для меня пока непонятно

Ivan
12.05.2018
11:03:02
ладно, попробую поднять память, спасибо

Tima
12.05.2018
11:03:15

Ivan
12.05.2018
11:29:59

Google

?
13.05.2018
10:08:40
а можно как-то колонку переименовать?

Anton
13.05.2018
10:13:16
Неа

?
13.05.2018
10:14:21
ага, создал такую же таблицу с другим именем колонки и INSERT INTO new SELECT * FROM old
а вот у меня есть MATERIALIZED VIEW, где есть конструкция типа
AS SELECT ID, GenID as GeneratedID FROM
(SELECT IP, UA, URLHash(Referer) as URL, max(GeneratedID) as GenID, max(cityHash64(IP,UA,GeneratedID)) as ID
FROM pix
GROUP BY IP, UA, URL)
он создается с POPULATE все ок, но при вставке новых данных выпадает с ошибкой
Unknown identifier: GenID: while pushing to view default.ViewUniqHits
почему такое происходит?


Denis
13.05.2018
14:17:44
а вот у меня есть MATERIALIZED VIEW, где есть конструкция типа
AS SELECT ID, GenID as GeneratedID FROM
(SELECT IP, UA, URLHash(Referer) as URL, max(GeneratedID) as GenID, max(cityHash64(IP,UA,GeneratedID)) as ID
FROM pix
GROUP BY IP, UA, URL)
он создается с POPULATE все ок, но при вставке новых данных выпадает с ошибкой
Unknown identifier: GenID: while pushing to view default.ViewUniqHits
почему такое происходит?
а движок какой, партиционировано как? MV - же не перестраивается полностью, мне тяжело представить что посчитает max в MV.
Есть AggregatingMergeTree и стейты (maxState)
https://gist.github.com/den-crane/6eff375752a236a456e1b3dc2ca7db62

?
13.05.2018
14:19:24
движок вообще Memory )

Denis
13.05.2018
14:37:50
движок вообще Memory )
понятно.
в любом случае, MV выполняют запрос на блок вставляемых данных, а не на всю таблицу, поэтому в общем случае max вообще не будет ничего хорошего считать.

?
13.05.2018
14:38:47
ага, понял, спасибо

molo4ko
13.05.2018
17:36:00
А кто как бэкапит? Ставите партишены по неделе или что-то хитрее?

Viktor
13.05.2018
17:54:52

molo4ko
13.05.2018
17:57:47
Волнует вопрос места, скорее. Как решается отсутствие поддержки инкрементальных бекапов

Anton
13.05.2018
18:34:23

molo4ko
13.05.2018
19:07:00
А при distributed схеме?
Мы бекапим сейчас все реплики каждого шарда из расчёта на вероятную неконсистентность. Тот же фриз

Anton
13.05.2018
19:09:14
Мне кажется штатная реализация если и будет, то а ля hp vertica. Python, ssh и rsync с жёсткой привязкой к текущему состоянию инфраструктуры и узлам
Да по другому и не получится

sha-bang
13.05.2018
19:55:20
Приветствую!
Не подскажете, что означает вот этот параметр
select value from metrics where metric = 'ZooKeeperWatch'

Ivan
14.05.2018
06:30:27
к вопросу о нехватке памяти при выполнении агрегирования, нашел слайды с митапа 5, где разбирается как выполнять запрос, если он не пролезает по оперативной памяти. Вдруг кому понадобится: https://clickhouse.yandex/presentations/meetup5

LeiDruid
14.05.2018
07:04:11
доброе утро!
В чем может заключаться проблема: КХ тупит нещадно, http залипает. Иногда все падает без объективной причины и следов в логах
В перфтопе
35,85% clickhouse [.] SpinLock::SlowLock
11,66% [kernel] [k] enqueue_entity
7,30% [kernel] [k] __d_lookup_rcu
6,79% [kernel] [k] pageblock_pfn_to_page
6,11% clickhouse [.] std::_Hashtable<std::__cxx11::basic_string<char, st
5,78% clickhouse [.] LZ4_decompress_fast

Aloneibreak
14.05.2018
07:05:31
добрый день
поиск по каналу ответов не дал ?
периодически возникает ошибка
>DB::Exception: Attempt to read after eof, e.what() = DB::Exception (from один из шардов)
если это важно - в запросе используется внешний словарь из mysql
с чем может быть связана такая ошибка?

Google

Michal
14.05.2018
07:13:56

LeiDruid
14.05.2018
07:26:42

Nikolai
14.05.2018
09:14:27

LeiDruid
14.05.2018
09:23:48
Да, я посмотрел. Есть мердж на 100 Гб
progress - это 1/n ?

Nikolai
14.05.2018
10:06:57

LeiDruid
14.05.2018
10:18:11
У меня увеличивается число в columns written