
Wolf
20.05.2018
16:41:46
Одноядерный

Tima
20.05.2018
16:42:49

Kirill
20.05.2018
16:45:24


?
20.05.2018
17:34:24
а вот подскажите, есть ряд данных, отсортированных по убыванию, мне нужно ответить на вопрос – "сколько элементов нужно чтобы набрать 95% от суммы", это что-то вроде topK, только оно бы выглядело что-то типа topKwithQuantile(0.95)(...)
или если бы topK(..)(...) возвращал бы еще дополнительно массив процентов.

Google

?
20.05.2018
17:34:33
можно конечно отсечь хвосты HAVING CNT/SUMM>1.5, но может быть есть еще варианты

Vladislav
20.05.2018
18:05:38
Всем привет.
Где-то видел, что есть возможность почистить содежимое колонок в определнные партициях.
У нас сейчас задача, для событий старше N месяцев, грохнуть 2 колонки, которые занимают очень много места. Пересоздавать таблицу не вариант(объем 2ТБ).
В доке что-то найти не могу=(
https://groups.google.com/d/msg/clickhouse/kkZEtkTpjPg/D5gAn6j_AAAJ
Нашел сообщение Алексея, в котором он рассказывал об этом.
Удалось ли реализовать в итоге?

Андрей
20.05.2018
18:17:34

Александр
20.05.2018
18:18:06
Привет, где почитать-послушать можно про тюнинг производительности в разрезе настройки количество коннешенов итд

Kirill
20.05.2018
19:01:04

Vladislav
20.05.2018
19:02:57
Это получается недокументированная фича?

Kirill
20.05.2018
19:03:05
Прадон, не drop, а CLEAR
Да, нет в документации
Пример ALTER TABLE Reports CLEAR COLUMN EventTime IN PARTITION 201804

Vladislav
20.05.2018
19:03:43
а точно in? или from partition?
И еще вопрос, наскольько это стабильно?

Google

Vladislav
20.05.2018
19:05:05
Не страшно на боевую табличку натравливать?

Kirill
20.05.2018
19:05:13
И еще вопрос, наскольько это стабильно?
Стабильно, мы с этим живем, есть одно "НО" - после CLEAR для SummingMergeTree для этой партиции не работают мержи, если критично то можно сделать DETACH/ATTACH, чуть позже поправлю или это сделает кто-то из Яндекс, мы об этом говорили

Vladislav
20.05.2018
19:08:32

Kirill
20.05.2018
19:10:15
Еще, после CLEAR он физически удаляет ее с диска и отдает то что было прописано в DEFAULT, поэтому если там было что-то вроде DEFAULT now() - всегда будет новое значение от выражения функции

prll
20.05.2018
22:11:02

Evgeny
21.05.2018
00:01:19

Kirill
21.05.2018
07:53:13

Evgeny
21.05.2018
08:00:15
стандартный докер из docker hub нередко падает на маке
по кр мере у меня

?
21.05.2018
08:07:54
а какие есть подводные камни использования таблицы как словаря вместо многоэтажных USING?

Kirill
21.05.2018
08:09:07

?
21.05.2018
08:10:08
потому что они еще не доехали?

Kirill
21.05.2018
08:11:15

Alex
21.05.2018
08:11:42

Kirill
21.05.2018
08:12:17

?
21.05.2018
08:14:32
ясно, спасибо
вообще если бы еще был механизм описания словарей из клиента, а не из файлика – это было бы тотал перфекшн

Google

Kirill
21.05.2018
08:16:38
насколько я помню такая задача была

Evgeny
21.05.2018
08:19:17


Vasiliy
21.05.2018
08:21:24
Друзья, всем привет! Подскажите, пожалуйста, может кто сталкивался. Есть кластер, 8 нод - 4 щарды по 2 реплике в шарде. Переливали данные из старого кликхаус кластера в новый. У кластера внутренняя выделенная сетка.
В общем при записи накопилось куча данных в table_name_distributed - были таймауты по вставке в другие ноды. Сейчас судя по логам кликхаус пытается их переотправить, но периодически умирает с Timeout:
2018.05.21 11:15:05.981436 [ 98 ] <Error> ping_event_distributed.Distributed.DirectoryMonitor: Code: 209, e.displayText() = DB::NetException: Timeout exceeded while writing to socket (172.16.0.105:9000), e.what() = DB::NetException, Stack trace:
0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065]
1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x21) [0x2ccbe01]
2. /usr/bin/clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x827) [0x85169b7]
3. /usr/bin/clickhouse-server() [0x851adf1]
4. /usr/bin/clickhouse-server(DB::Connection::sendPreparedData(DB::ReadBuffer&, unsigned long, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0x548) [0x7f582d8]
5. /usr/bin/clickhouse-server(DB::RemoteBlockOutputStream::writePrepared(DB::ReadBuffer&, unsigned long)+0x3d) [0x803ad6d]
6. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::processFile(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0xf0) [0x7e6d3f0]
7. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::findFiles()+0x16f) [0x7e6ed3f]
8. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::run()+0x94) [0x7e6f324]
9. /usr/bin/clickhouse-server() [0x8dd397e]
10. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7ff04a35d6b9]
11. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7ff049b8641c]
На ноде 172.16.0.105 не вижу никаких проблем, по dmesg и прчим нетстатам тоже все ок. Нагрузки нет, LA порядка 0.5 на 24 ядра.
Есть мысли куда копнуть? Грешу на сеть, но что-то не вижу никаких явных проблем с ней ?
Благодарю!


Kirill
21.05.2018
08:21:52

Evgeny
21.05.2018
08:24:58
понятно
у меня было такое, что условно говоря, одна и та же процедура привела к падению докера (с 8G лимитом на память) и отработала нормально при сервере, запущенном без докера

Stanislav
21.05.2018
08:45:55
Обновил кликхаус до 1.1.54381 и наступил на то, что запрос SELECT sum(data_compressed_bytes) AS data_compressed, sum(data_uncompressed_bytes) AS data_uncompressed FROM system.parts_columns WHERE active = 1; стал выдавать значения, не соответствующие действительности. Где-то этак на порядок.
Ну то есть, данных лежит 100Гб, а data_compressed - порядка полутора Тб.
Пока заменил таблицу на parts, но непонятно, это так и должно быть или я изначально не туда смотрел?

Александр
21.05.2018
09:26:19
Доброго времени суток, после чтения чата так и не понял что лучше для высокой производительности :
- 1 машина - 1 инстанс или
- 1 машина - много инстансов

LeiDruid
21.05.2018
09:27:37
первое
Нет смысла во втором

Kirill
21.05.2018
09:27:47

Александр
21.05.2018
09:27:50
Спасибо!


Vasiliy
21.05.2018
09:35:46
Друзья, всем привет! Подскажите, пожалуйста, может кто сталкивался. Есть кластер, 8 нод - 4 щарды по 2 реплике в шарде. Переливали данные из старого кликхаус кластера в новый. У кластера внутренняя выделенная сетка.
В общем при записи накопилось куча данных в table_name_distributed - были таймауты по вставке в другие ноды. Сейчас судя по логам кликхаус пытается их переотправить, но периодически умирает с Timeout:
2018.05.21 11:15:05.981436 [ 98 ] <Error> ping_event_distributed.Distributed.DirectoryMonitor: Code: 209, e.displayText() = DB::NetException: Timeout exceeded while writing to socket (172.16.0.105:9000), e.what() = DB::NetException, Stack trace:
0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065]
1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x21) [0x2ccbe01]
2. /usr/bin/clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x827) [0x85169b7]
3. /usr/bin/clickhouse-server() [0x851adf1]
4. /usr/bin/clickhouse-server(DB::Connection::sendPreparedData(DB::ReadBuffer&, unsigned long, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0x548) [0x7f582d8]
5. /usr/bin/clickhouse-server(DB::RemoteBlockOutputStream::writePrepared(DB::ReadBuffer&, unsigned long)+0x3d) [0x803ad6d]
6. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::processFile(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0xf0) [0x7e6d3f0]
7. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::findFiles()+0x16f) [0x7e6ed3f]
8. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::run()+0x94) [0x7e6f324]
9. /usr/bin/clickhouse-server() [0x8dd397e]
10. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7ff04a35d6b9]
11. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7ff049b8641c]
На ноде 172.16.0.105 не вижу никаких проблем, по dmesg и прчим нетстатам тоже все ок. Нагрузки нет, LA порядка 0.5 на 24 ядра.
Есть мысли куда копнуть? Грешу на сеть, но что-то не вижу никаких явных проблем с ней ?
Благодарю!
А на другой ноде в это время вижу такой exception, что логично, кстати:
2018.05.21 11:55:47.268405 [ 142 ] <Error> executeQuery: Code: 33, e.displayText() = DB::Exception: Cannot read all data, e.what() = DB::Exception (from 172.16.0.101:34918) Stack trace:
0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065]
1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x21) [0x2ccbe01]
2. /usr/bin/clickhouse-server(DB::CompressedReadBufferBase::readCompressedData(unsigned long&, unsigned long&)+0x8fd) [0x84f7e5d]
3. /usr/bin/clickhouse-server(DB::CompressedReadBuffer::nextImpl()+0x32) [0x84f7022]
4. /usr/bin/clickhouse-server() [0x7652d44]
5. /usr/bin/clickhouse-server(DB::NativeBlockInputStream::readData(DB::IDataType const&, DB::IColumn&, DB::ReadBuffer&, unsigned long, double)+0xf7) [0x75f7dd7]
6. /usr/bin/clickhouse-server(DB::NativeBlockInputStream::readImpl()+0x966) [0x75fae86]
7. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x259) [0x75f5c49]
8. /usr/bin/clickhouse-server(DB::TCPHandler::receiveData()+0x83) [0x2cda183]
9. /usr/bin/clickhouse-server(DB::TCPHandler::receivePacket()+0xcc) [0x2cdb67c]
10. /usr/bin/clickhouse-server(DB::TCPHandler::readData(DB::Settings const&)+0x1c2) [0x2cdbb42]
11. /usr/bin/clickhouse-server(DB::TCPHandler::processInsertQuery(DB::Settings const&)+0x205) [0x2cdbee5]
12. /usr/bin/clickhouse-server(DB::TCPHandler::runImpl()+0x476) [0x2cdc566]
13. /usr/bin/clickhouse-server(DB::TCPHandler::run()+0x2a) [0x2cdd3ba]
14. /usr/bin/clickhouse-server(Poco::Net::TCPServerConnection::start()+0xe) [0x86d53de]
15. /usr/bin/clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x169) [0x86d57b9]
16. /usr/bin/clickhouse-server(Poco::PooledThread::run()+0x76) [0x8776976]
17. /usr/bin/clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0x37) [0x8772b87]
18. /usr/bin/clickhouse-server() [0x8dd397e]
19. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7fb9157d06b9]
20. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7fb914ff941c]
Прогнал сетку iperf'ом - вроде все ок, 830 mbit/sec выдает.. Есть идеи почему еще таймаут выскакивать может?


Wolf
21.05.2018
09:40:45
Посмотрите в ифконфиге ошибки на интерфейсе
Поставьте пинг на все сервера и посмотрите есть ли пропажи пакетов через несколько часов

Vasiliy
21.05.2018
09:57:51
Да, уже делал, с пингами все ок, как и с iperf'ом. На интерфейсе висит пара дропов, но они не увеличиваются при таймаутах в кликхаусе. Поставил watchdog туда же до кучи, других ошибок или ресетов нет. Буду наблдюдать.

Edya
21.05.2018
10:12:41
Коллеги, подскажите, пожалуйста, что нужно сделать чтобы избежать такой ошибки:
[160] ClickHouse exception, code: 160, host: groot-clickhouse.vcp.digitalaccess.ru, port: 80; Code: 160, e.displayText() = DB::Exception: Pattern application proves too difficult, exceeding max iterations (1000000), e.what() = DB::Exceptionпри использовании функций sequenceCount и sequenceMatch. Можно где-то увеличить кол-во итераций? или может что-то другое сделать..?
при этом сами условия выглядят просто:
sequenceCount('(?1).*(?2)(?t>=300).*(?3)')(datetime_server
, ui_type='description'
, ui_type='payment_form'
, name = 'purchase' and object_id = 6
)и для одной строки по которой происходит круппировка никак не может набраться 1млн строк
Up!

Alex
21.05.2018
10:21:50

Stanislav
21.05.2018
10:22:23
То есть пользовался багом :-)
Ясно.

Google

Alex
21.05.2018
10:22:23
В parts_columns первые N столбцов продублированы из parts
Плюс ещё есть небольшой эффект, из-за которого например сумма column_data_compressed_bytes по всем столбцам куска не будет равна data_compressed_bytes этого куска - если столбец Nested, у всех подстолбцов общий столбец с размерами, соответственно он будет входить в размер каждого подстолбца и посчитается несколько раз.
То есть, если нужны именно размеры для всего куска, надо брать data_compressed_bytes


Alexey
21.05.2018
12:25:41
Всем привет. Может быть кто-то сталкивался, а может нет ) Проблема обсуждалась около года назад, но мы попробовали вновь и получили опять нехороший опыт. Может быть проскакивала какая-то волшебная настройка и мы пропустили.
Суть проблемы. Есть таблица ReplicatedReplacingMergeTree, пытаемся сделать MV с ReplicatedAggregatingMergeTree, при использовании sumState,uniqState получаем задваивание показаний.
Связано с чтением с каждой реплики скорее всего, отсюда и задвоение. Решение не нашли.
версия CH 1.1.54380
При использовании MV с AggregatingMergeTree никаких проблем. Всё как и должно быть.


Stanislav
21.05.2018
12:30:47
Господа, есть ли best practices по резервному копированию с целью последующего восстановления после полного дизастера?
А то у меня кх вырастает из виртуалок, которые бекапились целиком, и надо бы его бекапить так, чтоб не было мучительно больно.
Пока вижу примерно такое:
SHOW CREATE TABLE ...
ALTER TABLE ... FREEZE ...
и результат утащить на хранилище, прибрав за собой.
После дизастера - восстановить кластер, создать таблицу и сделать ей ATTACH на взятое из хранилища. Есть что-то, что я упустил или всё так и есть?


Александр
21.05.2018
12:31:54
Привет ! Вопрос такой, очень много ошибок про сеть, хотя сеть тестили и все нормально - мы могли упустить что-то важно в настройках из-за чего сеть не хватает или нужно ЕЩЕ внимательнее сеть между машинами проверять ?
2018.05.21 11:55:46.112519 [ 101581 ] <Error> executeQuery: Code: 210, e.displayText() = DB::NetException: I/O error: Broken pipe: while reading from socket (10.7.16.109:38824), e.what() = DB::NetException (from 10.7.16.109:38824) (in query: SELECT report_date, domain, visits, users, direct, referral, social, search, paid, hits, hits / visits AS pages_per_visit, bounce_rate, time_on_site, rank FROM domain_metrics PREWHERE (report_date = '2018-03-01') AND (country_code = '') AND (did IN cityHash64('eleconomista.es'))), Stack trace:
0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065]
1. /usr/bin/clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x6bb) [0x851684b]
2. /usr/bin/clickhouse-server(DB::WriteBuffer::next()+0x25) [0x2cde045]
3. /usr/bin/clickhouse-server(DB::TCPHandler::processOrdinaryQuery()+0x494) [0x2cd9124]
4. /usr/bin/clickhouse-server(DB::TCPHandler::runImpl()+0x607) [0x2cdc6f7]
5. /usr/bin/clickhouse-server(DB::TCPHandler::run()+0x2a) [0x2cdd3ba]
6. /usr/bin/clickhouse-server(Poco::Net::TCPServerConnection::start()+0xe) [0x86d53de]
7. /usr/bin/clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x169) [0x86d57b9]
8. /usr/bin/clickhouse-server(Poco::PooledThread::run()+0x76) [0x8776976]
9. /usr/bin/clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0x37) [0x8772b87]
10. /usr/bin/clickhouse-server() [0x8dd397e]
11. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7f039d3bc6b9]
12. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7f039cbe541c]


Kirill
21.05.2018
12:32:54


Stanislav
21.05.2018
12:33:31
Благодарю, про то, что метаданные лежат в открытом виде забыл.
Ошибка очень напоминает ситуацию, когда нетерпеливый клиент недождался результатов запроса и закрыл соединение.

Александр
21.05.2018
12:35:01

Stanislav
21.05.2018
12:35:31
По-крайней мере, стоит посмотреть, сколько выполняется этот запрос в консоли


Kirill
21.05.2018
12:36:37
Привет ! Вопрос такой, очень много ошибок про сеть, хотя сеть тестили и все нормально - мы могли упустить что-то важно в настройках из-за чего сеть не хватает или нужно ЕЩЕ внимательнее сеть между машинами проверять ?
2018.05.21 11:55:46.112519 [ 101581 ] <Error> executeQuery: Code: 210, e.displayText() = DB::NetException: I/O error: Broken pipe: while reading from socket (10.7.16.109:38824), e.what() = DB::NetException (from 10.7.16.109:38824) (in query: SELECT report_date, domain, visits, users, direct, referral, social, search, paid, hits, hits / visits AS pages_per_visit, bounce_rate, time_on_site, rank FROM domain_metrics PREWHERE (report_date = '2018-03-01') AND (country_code = '') AND (did IN cityHash64('eleconomista.es'))), Stack trace:
0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065]
1. /usr/bin/clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x6bb) [0x851684b]
2. /usr/bin/clickhouse-server(DB::WriteBuffer::next()+0x25) [0x2cde045]
3. /usr/bin/clickhouse-server(DB::TCPHandler::processOrdinaryQuery()+0x494) [0x2cd9124]
4. /usr/bin/clickhouse-server(DB::TCPHandler::runImpl()+0x607) [0x2cdc6f7]
5. /usr/bin/clickhouse-server(DB::TCPHandler::run()+0x2a) [0x2cdd3ba]
6. /usr/bin/clickhouse-server(Poco::Net::TCPServerConnection::start()+0xe) [0x86d53de]
7. /usr/bin/clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x169) [0x86d57b9]
8. /usr/bin/clickhouse-server(Poco::PooledThread::run()+0x76) [0x8776976]
9. /usr/bin/clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0x37) [0x8772b87]
10. /usr/bin/clickhouse-server() [0x8dd397e]
11. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7f039d3bc6b9]
12. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7f039cbe541c]
У вас сам запрос сколько раз выполнился правильно? Во время него машины не падают?


Александр
21.05.2018
12:37:00

Vyacheslav
21.05.2018
12:39:09
полторы минуты. возможно что-то с таймаутами tcp, прпадающими пакетами, неверным mtu и запретом icpm. ну или dns

Kirill
21.05.2018
12:40:35

Александр
21.05.2018
12:41:06

Google

Александр
21.05.2018
12:43:17

Kirill
21.05.2018
12:44:07

Alexey
21.05.2018
12:44:37
max_network_bandwidth
max_network_bandwidth_for_user
max_network_bandwidth_for_all_users
эти настройки влияют только на query, и с помощью них нельзя ограничить полосу пропускания для репликации? хочу новые реплики добавить в кластер, нужно 5T по сети отреплицировать.

Kirill
21.05.2018
12:50:54


Alexey
21.05.2018
12:58:40
Есть где-нибудь пример как воспроизвести?
Можете попробовать на примере моих таблиц и вью
CREATE TABLE test_table ( game_id String, _date Date, game_type String, game_sub_type String, status String, table_id String, casino_id String, internal_player_id String, bets.stake_casino_currency Array(Float64), bets.payout_casino_currency Array(Float64)) \
ENGINE = ReplicatedReplacingMergeTree('/clickhouse/tables/test_table_2018_05_21', '{replica}', _date) \
PARTITION BY toDate(_date) ORDER BY (casino_id, internal_player_id, game_id, table_id) SETTINGS index_granularity = 8192
CREATE MATERIALIZED VIEW test_view ( Date Date, casino_id String, player_id String, wager AggregateFunction(sum, Float64), payout AggregateFunction(sum, Float64), bet_count AggregateFunction(sum, UInt64), game_count AggregateFunction(uniq, String))
ENGINE = ReplicatedAggregatingMergeTree('/clickhouse/tables/test_view_2018_05_21', '{replica}', Date, (Date, casino_id, player_id), 8192) \
AS SELECT _date AS Date, casino_id, internal_player_id AS player_id, sumState(arraySum(bets.stake_casino_currency)) AS wager, sumState(arraySum(bets.payout_casino_currency)) AS payout, sumState(length(bets.stake_casino_currency)) AS bet_count, uniqState(game_id) AS game_count \
FROM test_table GROUP BY _date, casino_id, internal_player_id


Kirill
21.05.2018
13:28:23
Можете попробовать на примере моих таблиц и вью
CREATE TABLE test_table ( game_id String, _date Date, game_type String, game_sub_type String, status String, table_id String, casino_id String, internal_player_id String, bets.stake_casino_currency Array(Float64), bets.payout_casino_currency Array(Float64)) \
ENGINE = ReplicatedReplacingMergeTree('/clickhouse/tables/test_table_2018_05_21', '{replica}', _date) \
PARTITION BY toDate(_date) ORDER BY (casino_id, internal_player_id, game_id, table_id) SETTINGS index_granularity = 8192
CREATE MATERIALIZED VIEW test_view ( Date Date, casino_id String, player_id String, wager AggregateFunction(sum, Float64), payout AggregateFunction(sum, Float64), bet_count AggregateFunction(sum, UInt64), game_count AggregateFunction(uniq, String))
ENGINE = ReplicatedAggregatingMergeTree('/clickhouse/tables/test_view_2018_05_21', '{replica}', Date, (Date, casino_id, player_id), 8192) \
AS SELECT _date AS Date, casino_id, internal_player_id AS player_id, sumState(arraySum(bets.stake_casino_currency)) AS wager, sumState(arraySum(bets.payout_casino_currency)) AS payout, sumState(length(bets.stake_casino_currency)) AS bet_count, uniqState(game_id) AS game_count \
FROM test_table GROUP BY _date, casino_id, internal_player_id
У меня просто пишет при создании MV
Received exception from server (version 1.1.54343):
Code: 43. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: arraySum cannot add values of type Array(Float64).
У вас есть что-то более читабельное?


papa
21.05.2018
13:32:24
может надо не arraySum, а sumArray?
а хотя sumState(arraySum), вроде ок.


Alexey
21.05.2018
13:39:44
У меня просто пишет при создании MV
Received exception from server (version 1.1.54343):
Code: 43. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: arraySum cannot add values of type Array(Float64).
У вас есть что-то более читабельное?
при создании вью можно вообще без всего, он сам подставит нужные типы, я ещё после show create table забыл добавить ON CLUSTER
CREATE MATERIALIZED VIEW test_view ON CLUSTER test \
ENGINE = ReplicatedAggregatingMergeTree('/clickhouse/tables/test_view/player_snapshot_2018_05_21', '{replica}', Date, (Date, casino_id, player_id), 8192) \
AS SELECT _date AS Date, casino_id, internal_player_id AS player_id, sumState(arraySum(bets.stake_casino_currency)) AS wager, sumState(arraySum(bets.payout_casino_currency)) AS payout, sumState(length(bets.stake_casino_currency)) AS bet_count, uniqState(game_id) AS game_count \
FROM test_table GROUP BY _date, casino_id, internal_player_id


Daniel
21.05.2018
14:08:17
Вот из этого коммита @kshvakov https://github.com/influxdata/telegraf/pull/3894/files#diff-0696c970913cf8e6aa523278cfdb70fb

Diomid
21.05.2018
14:14:24
Ссылочки не будет?

Александр
21.05.2018
14:18:35
я правильно понимаю, что max_distributed_connections & distributed_connections_pool_size нужно не на ходу менять а перед созданием таблицы прописывать ?

Kirill
21.05.2018
14:23:10

Александр
21.05.2018
14:24:13
Спасибо !

Diomid
21.05.2018
14:31:53
Скажите пожалуйста, а пользователю default можно безболезненно устаналивать пароль?

Daniel
21.05.2018
14:35:10

Diomid
21.05.2018
14:35:42

Daniel
21.05.2018
14:40:33