@clickhouse_ru

Страница 534 из 723
Wolf
20.05.2018
16:41:46
Одноядерный

Tima
20.05.2018
16:42:49
Это не так )
Ну как хотите, вам же страдать

Kirill
20.05.2018
16:45:24
Ну тут как раз лучше один кх, и он будет куда лучше утилизировать ресурсы на параллельных запросах. Я могу представить гипертрофированный случай на сервере с 64 ядами как разместить данные и какие запросы отправлять чтобы получить лучший перфоманс но это реально сильно далеко от реальных задач и я думаю у присутствующих здесь людей в жизни таких задач ноль к сожалению. Слава богу кликхаус не однорядный
Нет, у меня, есть вполне себе реальная задача и решение с контейнерами по первым пробам работает, в моем случае лучше, насколько можно его еще улучшить - это я какраз и собираюсь в ближайшее время выяснить. Помимо этого кейса у нас вполне себе есть решение с КХ который работает на железе, и, возможно, можно тоже это количество железа уменьшить засчет уплотнения КХ и возможности динамического аллоцирования ресурсов под некоторые тяжелые задачи

?
20.05.2018
17:34:24
а вот подскажите, есть ряд данных, отсортированных по убыванию, мне нужно ответить на вопрос – "сколько элементов нужно чтобы набрать 95% от суммы", это что-то вроде topK, только оно бы выглядело что-то типа topKwithQuantile(0.95)(...) или если бы topK(..)(...) возвращал бы еще дополнительно массив процентов.

Google
?
20.05.2018
17:34:33


можно конечно отсечь хвосты HAVING CNT/SUMM>1.5, но может быть есть еще варианты

Vladislav
20.05.2018
18:05:38
Всем привет. Где-то видел, что есть возможность почистить содежимое колонок в определнные партициях. У нас сейчас задача, для событий старше N месяцев, грохнуть 2 колонки, которые занимают очень много места. Пересоздавать таблицу не вариант(объем 2ТБ). В доке что-то найти не могу=(

https://groups.google.com/d/msg/clickhouse/kkZEtkTpjPg/D5gAn6j_AAAJ Нашел сообщение Алексея, в котором он рассказывал об этом. Удалось ли реализовать в итоге?

Александр
20.05.2018
18:18:06
Привет, где почитать-послушать можно про тюнинг производительности в разрезе настройки количество коннешенов итд

Vladislav
20.05.2018
19:02:57
Это получается недокументированная фича?

Kirill
20.05.2018
19:03:05
Прадон, не drop, а CLEAR

Да, нет в документации

Пример ALTER TABLE Reports CLEAR COLUMN EventTime IN PARTITION 201804

Vladislav
20.05.2018
19:03:43
а точно in? или from partition?

И еще вопрос, наскольько это стабильно?

Google
Vladislav
20.05.2018
19:05:05
Не страшно на боевую табличку натравливать?

Kirill
20.05.2018
19:05:13
Привет, где почитать-послушать можно про тюнинг производительности в разрезе настройки количество коннешенов итд
Соединений нужно держать по возможности меньше. По "тюнингу" там сильно крутить нечего, они и так пытается все заиспользовать

И еще вопрос, наскольько это стабильно?
Стабильно, мы с этим живем, есть одно "НО" - после CLEAR для SummingMergeTree для этой партиции не работают мержи, если критично то можно сделать DETACH/ATTACH, чуть позже поправлю или это сделает кто-то из Яндекс, мы об этом говорили

а точно in? или from partition?
Точно, вот тут есть пример https://github.com/kshvakov/ClickHouse-CPP-Meetup#summingmergetree

Kirill
20.05.2018
19:10:15
Еще, после CLEAR он физически удаляет ее с диска и отдает то что было прописано в DEFAULT, поэтому если там было что-то вроде DEFAULT now() - всегда будет новое значение от выражения функции

Evgeny
21.05.2018
08:00:15
стандартный докер из docker hub нередко падает на маке

по кр мере у меня

?
21.05.2018
08:07:54
а какие есть подводные камни использования таблицы как словаря вместо многоэтажных USING?

Kirill
21.05.2018
08:09:07
стандартный докер из docker hub нередко падает на маке
Может быть, у меня последний год работал достаточно стабильно

?
21.05.2018
08:10:08
потому что они еще не доехали?

Kirill
21.05.2018
08:11:15
потому что они еще не доехали?
Да, может быть такое.

Alex
21.05.2018
08:11:42
стандартный докер из docker hub нередко падает на маке
как бы скорее всего это проблема их (ребят из докера) сборки линукса, потому что я с дефолтным образом не видел проблем

Kirill
21.05.2018
08:12:17
потому что они еще не доехали?
Можно использовать cache размещение и он будет бегать за теми что нет в памяти, но этот способ не очень эффективен

?
21.05.2018
08:14:32
ясно, спасибо

вообще если бы еще был механизм описания словарей из клиента, а не из файлика – это было бы тотал перфекшн

Google
Kirill
21.05.2018
08:16:38
насколько я помню такая задача была

Evgeny
21.05.2018
08:19:17
Vasiliy
21.05.2018
08:21:24
Друзья, всем привет! Подскажите, пожалуйста, может кто сталкивался. Есть кластер, 8 нод - 4 щарды по 2 реплике в шарде. Переливали данные из старого кликхаус кластера в новый. У кластера внутренняя выделенная сетка. В общем при записи накопилось куча данных в table_name_distributed - были таймауты по вставке в другие ноды. Сейчас судя по логам кликхаус пытается их переотправить, но периодически умирает с Timeout: 2018.05.21 11:15:05.981436 [ 98 ] <Error> ping_event_distributed.Distributed.DirectoryMonitor: Code: 209, e.displayText() = DB::NetException: Timeout exceeded while writing to socket (172.16.0.105:9000), e.what() = DB::NetException, Stack trace: 0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065] 1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x21) [0x2ccbe01] 2. /usr/bin/clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x827) [0x85169b7] 3. /usr/bin/clickhouse-server() [0x851adf1] 4. /usr/bin/clickhouse-server(DB::Connection::sendPreparedData(DB::ReadBuffer&, unsigned long, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0x548) [0x7f582d8] 5. /usr/bin/clickhouse-server(DB::RemoteBlockOutputStream::writePrepared(DB::ReadBuffer&, unsigned long)+0x3d) [0x803ad6d] 6. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::processFile(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0xf0) [0x7e6d3f0] 7. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::findFiles()+0x16f) [0x7e6ed3f] 8. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::run()+0x94) [0x7e6f324] 9. /usr/bin/clickhouse-server() [0x8dd397e] 10. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7ff04a35d6b9] 11. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7ff049b8641c] На ноде 172.16.0.105 не вижу никаких проблем, по dmesg и прчим нетстатам тоже все ок. Нагрузки нет, LA порядка 0.5 на 24 ядра. Есть мысли куда копнуть? Грешу на сеть, но что-то не вижу никаких явных проблем с ней ? Благодарю!

Kirill
21.05.2018
08:21:52
сколько памяти отводили под докер?
У меня все крутилось на стареньком Air с 4Gb памяти

Evgeny
21.05.2018
08:24:58
понятно у меня было такое, что условно говоря, одна и та же процедура привела к падению докера (с 8G лимитом на память) и отработала нормально при сервере, запущенном без докера

Stanislav
21.05.2018
08:45:55
Обновил кликхаус до 1.1.54381 и наступил на то, что запрос SELECT sum(data_compressed_bytes) AS data_compressed, sum(data_uncompressed_bytes) AS data_uncompressed FROM system.parts_columns WHERE active = 1; стал выдавать значения, не соответствующие действительности. Где-то этак на порядок.

Ну то есть, данных лежит 100Гб, а data_compressed - порядка полутора Тб.

Пока заменил таблицу на parts, но непонятно, это так и должно быть или я изначально не туда смотрел?

Александр
21.05.2018
09:26:19
Доброго времени суток, после чтения чата так и не понял что лучше для высокой производительности : - 1 машина - 1 инстанс или - 1 машина - много инстансов

LeiDruid
21.05.2018
09:27:37
первое

Нет смысла во втором

Александр
21.05.2018
09:27:50
Спасибо!

Vasiliy
21.05.2018
09:35:46
Друзья, всем привет! Подскажите, пожалуйста, может кто сталкивался. Есть кластер, 8 нод - 4 щарды по 2 реплике в шарде. Переливали данные из старого кликхаус кластера в новый. У кластера внутренняя выделенная сетка. В общем при записи накопилось куча данных в table_name_distributed - были таймауты по вставке в другие ноды. Сейчас судя по логам кликхаус пытается их переотправить, но периодически умирает с Timeout: 2018.05.21 11:15:05.981436 [ 98 ] <Error> ping_event_distributed.Distributed.DirectoryMonitor: Code: 209, e.displayText() = DB::NetException: Timeout exceeded while writing to socket (172.16.0.105:9000), e.what() = DB::NetException, Stack trace: 0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065] 1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x21) [0x2ccbe01] 2. /usr/bin/clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x827) [0x85169b7] 3. /usr/bin/clickhouse-server() [0x851adf1] 4. /usr/bin/clickhouse-server(DB::Connection::sendPreparedData(DB::ReadBuffer&, unsigned long, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0x548) [0x7f582d8] 5. /usr/bin/clickhouse-server(DB::RemoteBlockOutputStream::writePrepared(DB::ReadBuffer&, unsigned long)+0x3d) [0x803ad6d] 6. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::processFile(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0xf0) [0x7e6d3f0] 7. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::findFiles()+0x16f) [0x7e6ed3f] 8. /usr/bin/clickhouse-server(DB::StorageDistributedDirectoryMonitor::run()+0x94) [0x7e6f324] 9. /usr/bin/clickhouse-server() [0x8dd397e] 10. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7ff04a35d6b9] 11. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7ff049b8641c] На ноде 172.16.0.105 не вижу никаких проблем, по dmesg и прчим нетстатам тоже все ок. Нагрузки нет, LA порядка 0.5 на 24 ядра. Есть мысли куда копнуть? Грешу на сеть, но что-то не вижу никаких явных проблем с ней ? Благодарю!
А на другой ноде в это время вижу такой exception, что логично, кстати: 2018.05.21 11:55:47.268405 [ 142 ] <Error> executeQuery: Code: 33, e.displayText() = DB::Exception: Cannot read all data, e.what() = DB::Exception (from 172.16.0.101:34918) Stack trace: 0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065] 1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x21) [0x2ccbe01] 2. /usr/bin/clickhouse-server(DB::CompressedReadBufferBase::readCompressedData(unsigned long&, unsigned long&)+0x8fd) [0x84f7e5d] 3. /usr/bin/clickhouse-server(DB::CompressedReadBuffer::nextImpl()+0x32) [0x84f7022] 4. /usr/bin/clickhouse-server() [0x7652d44] 5. /usr/bin/clickhouse-server(DB::NativeBlockInputStream::readData(DB::IDataType const&, DB::IColumn&, DB::ReadBuffer&, unsigned long, double)+0xf7) [0x75f7dd7] 6. /usr/bin/clickhouse-server(DB::NativeBlockInputStream::readImpl()+0x966) [0x75fae86] 7. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x259) [0x75f5c49] 8. /usr/bin/clickhouse-server(DB::TCPHandler::receiveData()+0x83) [0x2cda183] 9. /usr/bin/clickhouse-server(DB::TCPHandler::receivePacket()+0xcc) [0x2cdb67c] 10. /usr/bin/clickhouse-server(DB::TCPHandler::readData(DB::Settings const&)+0x1c2) [0x2cdbb42] 11. /usr/bin/clickhouse-server(DB::TCPHandler::processInsertQuery(DB::Settings const&)+0x205) [0x2cdbee5] 12. /usr/bin/clickhouse-server(DB::TCPHandler::runImpl()+0x476) [0x2cdc566] 13. /usr/bin/clickhouse-server(DB::TCPHandler::run()+0x2a) [0x2cdd3ba] 14. /usr/bin/clickhouse-server(Poco::Net::TCPServerConnection::start()+0xe) [0x86d53de] 15. /usr/bin/clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x169) [0x86d57b9] 16. /usr/bin/clickhouse-server(Poco::PooledThread::run()+0x76) [0x8776976] 17. /usr/bin/clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0x37) [0x8772b87] 18. /usr/bin/clickhouse-server() [0x8dd397e] 19. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7fb9157d06b9] 20. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7fb914ff941c] Прогнал сетку iperf'ом - вроде все ок, 830 mbit/sec выдает.. Есть идеи почему еще таймаут выскакивать может?

Wolf
21.05.2018
09:40:45
Посмотрите в ифконфиге ошибки на интерфейсе

Поставьте пинг на все сервера и посмотрите есть ли пропажи пакетов через несколько часов

Vasiliy
21.05.2018
09:57:51
Да, уже делал, с пингами все ок, как и с iperf'ом. На интерфейсе висит пара дропов, но они не увеличиваются при таймаутах в кликхаусе. Поставил watchdog туда же до кучи, других ошибок или ресетов нет. Буду наблдюдать.

Stanislav
21.05.2018
10:22:23
То есть пользовался багом :-) Ясно.

Google
Alex
21.05.2018
10:22:23
В parts_columns первые N столбцов продублированы из parts

Плюс ещё есть небольшой эффект, из-за которого например сумма column_data_compressed_bytes по всем столбцам куска не будет равна data_compressed_bytes этого куска - если столбец Nested, у всех подстолбцов общий столбец с размерами, соответственно он будет входить в размер каждого подстолбца и посчитается несколько раз.

То есть, если нужны именно размеры для всего куска, надо брать data_compressed_bytes

Alexey
21.05.2018
12:25:41
Всем привет. Может быть кто-то сталкивался, а может нет ) Проблема обсуждалась около года назад, но мы попробовали вновь и получили опять нехороший опыт. Может быть проскакивала какая-то волшебная настройка и мы пропустили. Суть проблемы. Есть таблица ReplicatedReplacingMergeTree, пытаемся сделать MV с ReplicatedAggregatingMergeTree, при использовании sumState,uniqState получаем задваивание показаний. Связано с чтением с каждой реплики скорее всего, отсюда и задвоение. Решение не нашли.

версия CH 1.1.54380

При использовании MV с AggregatingMergeTree никаких проблем. Всё как и должно быть.

Stanislav
21.05.2018
12:30:47
Господа, есть ли best practices по резервному копированию с целью последующего восстановления после полного дизастера? А то у меня кх вырастает из виртуалок, которые бекапились целиком, и надо бы его бекапить так, чтоб не было мучительно больно. Пока вижу примерно такое: SHOW CREATE TABLE ... ALTER TABLE ... FREEZE ... и результат утащить на хранилище, прибрав за собой. После дизастера - восстановить кластер, создать таблицу и сделать ей ATTACH на взятое из хранилища. Есть что-то, что я упустил или всё так и есть?

Александр
21.05.2018
12:31:54
Привет ! Вопрос такой, очень много ошибок про сеть, хотя сеть тестили и все нормально - мы могли упустить что-то важно в настройках из-за чего сеть не хватает или нужно ЕЩЕ внимательнее сеть между машинами проверять ? 2018.05.21 11:55:46.112519 [ 101581 ] <Error> executeQuery: Code: 210, e.displayText() = DB::NetException: I/O error: Broken pipe: while reading from socket (10.7.16.109:38824), e.what() = DB::NetException (from 10.7.16.109:38824) (in query: SELECT report_date, domain, visits, users, direct, referral, social, search, paid, hits, hits / visits AS pages_per_visit, bounce_rate, time_on_site, rank FROM domain_metrics PREWHERE (report_date = '2018-03-01') AND (country_code = '') AND (did IN cityHash64('eleconomista.es'))), Stack trace: 0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065] 1. /usr/bin/clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x6bb) [0x851684b] 2. /usr/bin/clickhouse-server(DB::WriteBuffer::next()+0x25) [0x2cde045] 3. /usr/bin/clickhouse-server(DB::TCPHandler::processOrdinaryQuery()+0x494) [0x2cd9124] 4. /usr/bin/clickhouse-server(DB::TCPHandler::runImpl()+0x607) [0x2cdc6f7] 5. /usr/bin/clickhouse-server(DB::TCPHandler::run()+0x2a) [0x2cdd3ba] 6. /usr/bin/clickhouse-server(Poco::Net::TCPServerConnection::start()+0xe) [0x86d53de] 7. /usr/bin/clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x169) [0x86d57b9] 8. /usr/bin/clickhouse-server(Poco::PooledThread::run()+0x76) [0x8776976] 9. /usr/bin/clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0x37) [0x8772b87] 10. /usr/bin/clickhouse-server() [0x8dd397e] 11. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7f039d3bc6b9] 12. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7f039cbe541c]

Kirill
21.05.2018
12:32:54
Stanislav
21.05.2018
12:33:31
Благодарю, про то, что метаданные лежат в открытом виде забыл.

Ошибка очень напоминает ситуацию, когда нетерпеливый клиент недождался результатов запроса и закрыл соединение.

Stanislav
21.05.2018
12:35:31
По-крайней мере, стоит посмотреть, сколько выполняется этот запрос в консоли

Kirill
21.05.2018
12:36:37
Привет ! Вопрос такой, очень много ошибок про сеть, хотя сеть тестили и все нормально - мы могли упустить что-то важно в настройках из-за чего сеть не хватает или нужно ЕЩЕ внимательнее сеть между машинами проверять ? 2018.05.21 11:55:46.112519 [ 101581 ] <Error> executeQuery: Code: 210, e.displayText() = DB::NetException: I/O error: Broken pipe: while reading from socket (10.7.16.109:38824), e.what() = DB::NetException (from 10.7.16.109:38824) (in query: SELECT report_date, domain, visits, users, direct, referral, social, search, paid, hits, hits / visits AS pages_per_visit, bounce_rate, time_on_site, rank FROM domain_metrics PREWHERE (report_date = '2018-03-01') AND (country_code = '') AND (did IN cityHash64('eleconomista.es'))), Stack trace: 0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb065] 1. /usr/bin/clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x6bb) [0x851684b] 2. /usr/bin/clickhouse-server(DB::WriteBuffer::next()+0x25) [0x2cde045] 3. /usr/bin/clickhouse-server(DB::TCPHandler::processOrdinaryQuery()+0x494) [0x2cd9124] 4. /usr/bin/clickhouse-server(DB::TCPHandler::runImpl()+0x607) [0x2cdc6f7] 5. /usr/bin/clickhouse-server(DB::TCPHandler::run()+0x2a) [0x2cdd3ba] 6. /usr/bin/clickhouse-server(Poco::Net::TCPServerConnection::start()+0xe) [0x86d53de] 7. /usr/bin/clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x169) [0x86d57b9] 8. /usr/bin/clickhouse-server(Poco::PooledThread::run()+0x76) [0x8776976] 9. /usr/bin/clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0x37) [0x8772b87] 10. /usr/bin/clickhouse-server() [0x8dd397e] 11. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76b9) [0x7f039d3bc6b9] 12. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6c) [0x7f039cbe541c]
У вас сам запрос сколько раз выполнился правильно? Во время него машины не падают?

Александр
21.05.2018
12:37:00
У вас сам запрос сколько раз выполнился правильно? Во время него машины не падают?
Машины в кластере падают, но в логах только ошибка про сеть



Vyacheslav
21.05.2018
12:39:09
полторы минуты. возможно что-то с таймаутами tcp, прпадающими пакетами, неверным mtu и запретом icpm. ну или dns

Kirill
21.05.2018
12:40:35
Машины в кластере падают, но в логах только ошибка про сеть
Когда они падают они и соединения закрывают, при запросах к распределенным таблицам после этого вполне себе ошибки про сеть выпадают

Александр
21.05.2018
12:41:06


Google
Александр
21.05.2018
12:43:17
Kirill
21.05.2018
12:44:07
Что почитать про падения и что посмотреть, сам не местный и не настоящий сварщик
Нужно смотреть логи не только на машине которая запрос инициировала, но и на тех кто его выполнял

Alexey
21.05.2018
12:44:37
max_network_bandwidth max_network_bandwidth_for_user max_network_bandwidth_for_all_users эти настройки влияют только на query, и с помощью них нельзя ограничить полосу пропускания для репликации? хочу новые реплики добавить в кластер, нужно 5T по сети отреплицировать.

Kirill
21.05.2018
12:50:54
max_network_bandwidth max_network_bandwidth_for_user max_network_bandwidth_for_all_users эти настройки влияют только на query, и с помощью них нельзя ограничить полосу пропускания для репликации? хочу новые реплики добавить в кластер, нужно 5T по сети отреплицировать.
На репликацию, по идее, не должны влиять, хотя может что и вкрутили уже. Там еще есть проблема что тротлинг немного неправильно работает ) Так что лучше средствами самого Linux пока

Alexey
21.05.2018
12:58:40
Есть где-нибудь пример как воспроизвести?
Можете попробовать на примере моих таблиц и вью CREATE TABLE test_table ( game_id String, _date Date, game_type String, game_sub_type String, status String, table_id String, casino_id String, internal_player_id String, bets.stake_casino_currency Array(Float64), bets.payout_casino_currency Array(Float64)) \ ENGINE = ReplicatedReplacingMergeTree('/clickhouse/tables/test_table_2018_05_21', '{replica}', _date) \ PARTITION BY toDate(_date) ORDER BY (casino_id, internal_player_id, game_id, table_id) SETTINGS index_granularity = 8192 CREATE MATERIALIZED VIEW test_view ( Date Date, casino_id String, player_id String, wager AggregateFunction(sum, Float64), payout AggregateFunction(sum, Float64), bet_count AggregateFunction(sum, UInt64), game_count AggregateFunction(uniq, String)) ENGINE = ReplicatedAggregatingMergeTree('/clickhouse/tables/test_view_2018_05_21', '{replica}', Date, (Date, casino_id, player_id), 8192) \ AS SELECT _date AS Date, casino_id, internal_player_id AS player_id, sumState(arraySum(bets.stake_casino_currency)) AS wager, sumState(arraySum(bets.payout_casino_currency)) AS payout, sumState(length(bets.stake_casino_currency)) AS bet_count, uniqState(game_id) AS game_count \ FROM test_table GROUP BY _date, casino_id, internal_player_id

Kirill
21.05.2018
13:28:23
Можете попробовать на примере моих таблиц и вью CREATE TABLE test_table ( game_id String, _date Date, game_type String, game_sub_type String, status String, table_id String, casino_id String, internal_player_id String, bets.stake_casino_currency Array(Float64), bets.payout_casino_currency Array(Float64)) \ ENGINE = ReplicatedReplacingMergeTree('/clickhouse/tables/test_table_2018_05_21', '{replica}', _date) \ PARTITION BY toDate(_date) ORDER BY (casino_id, internal_player_id, game_id, table_id) SETTINGS index_granularity = 8192 CREATE MATERIALIZED VIEW test_view ( Date Date, casino_id String, player_id String, wager AggregateFunction(sum, Float64), payout AggregateFunction(sum, Float64), bet_count AggregateFunction(sum, UInt64), game_count AggregateFunction(uniq, String)) ENGINE = ReplicatedAggregatingMergeTree('/clickhouse/tables/test_view_2018_05_21', '{replica}', Date, (Date, casino_id, player_id), 8192) \ AS SELECT _date AS Date, casino_id, internal_player_id AS player_id, sumState(arraySum(bets.stake_casino_currency)) AS wager, sumState(arraySum(bets.payout_casino_currency)) AS payout, sumState(length(bets.stake_casino_currency)) AS bet_count, uniqState(game_id) AS game_count \ FROM test_table GROUP BY _date, casino_id, internal_player_id
У меня просто пишет при создании MV Received exception from server (version 1.1.54343): Code: 43. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: arraySum cannot add values of type Array(Float64). У вас есть что-то более читабельное?

papa
21.05.2018
13:32:24
может надо не arraySum, а sumArray?

а хотя sumState(arraySum), вроде ок.

Alexey
21.05.2018
13:39:44
У меня просто пишет при создании MV Received exception from server (version 1.1.54343): Code: 43. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: arraySum cannot add values of type Array(Float64). У вас есть что-то более читабельное?
при создании вью можно вообще без всего, он сам подставит нужные типы, я ещё после show create table забыл добавить ON CLUSTER CREATE MATERIALIZED VIEW test_view ON CLUSTER test \ ENGINE = ReplicatedAggregatingMergeTree('/clickhouse/tables/test_view/player_snapshot_2018_05_21', '{replica}', Date, (Date, casino_id, player_id), 8192) \ AS SELECT _date AS Date, casino_id, internal_player_id AS player_id, sumState(arraySum(bets.stake_casino_currency)) AS wager, sumState(arraySum(bets.payout_casino_currency)) AS payout, sumState(length(bets.stake_casino_currency)) AS bet_count, uniqState(game_id) AS game_count \ FROM test_table GROUP BY _date, casino_id, internal_player_id

Daniel
21.05.2018
14:08:17
Вот из этого коммита @kshvakov https://github.com/influxdata/telegraf/pull/3894/files#diff-0696c970913cf8e6aa523278cfdb70fb

Diomid
21.05.2018
14:14:24
Ссылочки не будет?

Александр
21.05.2018
14:18:35
я правильно понимаю, что max_distributed_connections & distributed_connections_pool_size нужно не на ходу менять а перед созданием таблицы прописывать ?

Kirill
21.05.2018
14:23:10
Александр
21.05.2018
14:24:13
Спасибо !

Diomid
21.05.2018
14:31:53
Скажите пожалуйста, а пользователю default можно безболезненно устаналивать пароль?

Daniel
21.05.2018
14:35:10
Ссылочки не будет?
Это вы мне? Там в сообщении приложен бинарник

Diomid
21.05.2018
14:35:42
Это вы мне? Там в сообщении приложен бинарник
Я увидел, что там была ссылка изначально)

Daniel
21.05.2018
14:40:33
Я увидел, что там была ссылка изначально)
https://github.com/ClickHouse-Ninja/telegraf/blob/610c583ec8d1ca58897d4f193226c9b04dbcdaba/plugins/inputs/clickhouse/README.md

Страница 534 из 723