
Pavel
17.08.2018
14:23:05
Господа, а можно как-то примерно прикинуть, сколько по времени КХ будет делать optimize table ... final?

Tatiana
17.08.2018
14:25:36

Alexey
17.08.2018
14:40:08

Tatiana
17.08.2018
14:40:37
да

Google

Alexey
17.08.2018
14:41:11

Alexey
17.08.2018
16:25:20
В КХ есть возможность получить лог/отчёт/метрики по запросам и сожранными ими CPU time
И есть ли возможность каким либо способом в рамках явно заданного временного интервала, повторно не исполнять одинаковые запросы. Регистрировать их где-нибудь в системных таблицах КХ и результаты работы самого первого запроса отдавать остальным клиентам
Мы можем это сделать в редисе или где-нибудь ещё, но мы любим КХ и не любим тратить ресурсы
:)
Только анонсирована (вчера) вощможность получать метрики по реальному CPU и IO time по запросам.
Ооооо супер
Пока нет кэша запросов - придётся на своей стороне.

Timur
17.08.2018
17:49:41

Sergey
17.08.2018
22:20:14
Подскажите, пожалуйста:
1. Лучше мощная машина или несколько средних нод для кластера?
2. Если лучше ноды, то можно ли без даунтайма докинуть еще нод в существующий кластер?
3. Увеличивается ли линейно скорость выполнения запроса с количеством нод пусть и со снижением производительности до полной синхронизации? (Можно ли просчитать стоимость железа исходя из объема данных и требуемых RPS).
4. Апгрейд на минорную версию сложная задача по сравнению с постгресом?
5. Есть ли готовые инструменты бэкапа или достаточно стянуть data и metadata?
6. Можно ли развернуть сначала в простом варианте без кафки и реплик и по мере необходимости докидывать ресурсы, либо лучше сразу организовать кластер?


Evgeniy
17.08.2018
23:50:33
1. Несколько средних лучше (быстрее), чем одна жирная, как правило.
2. Можно, перечитает на лету
3. Зависит от запроса, но за то же время в n раз данных параллельно считывается с диска больше, но есть накладки на получение их на мержащей ноде и на процессе мержа результата
4. Не пробовали даунгрейдить
5. Про готовое не слышал, есть варианты с FREEZE PARTITION, почитайте в доке
6. Не кафки, а зукипера, наверное, а вообще вам решать насколько доступны должны быть данные, если вы можете себе позволить восстанавливаться n времени из бэкапа/tsv/чего угодно, то можно и без реплик=) Кстати, кластер -- это не обязательно конфигурация с репликацией, можно просто несколько шардов и без нее, и зукипер не нужен


Sergey
17.08.2018
23:58:27
1. Несколько средних лучше (быстрее), чем одна жирная, как правило.
2. Можно, перечитает на лету
3. Зависит от запроса, но за то же время в n раз данных параллельно считывается с диска больше, но есть накладки на получение их на мержащей ноде и на процессе мержа результата
4. Не пробовали даунгрейдить
5. Про готовое не слышал, есть варианты с FREEZE PARTITION, почитайте в доке
6. Не кафки, а зукипера, наверное, а вообще вам решать насколько доступны должны быть данные, если вы можете себе позволить восстанавливаться n времени из бэкапа/tsv/чего угодно, то можно и без реплик=) Кстати, кластер -- это не обязательно конфигурация с репликацией, можно просто несколько шардов и без нее, и зукипер не нужен
Спасибо!

Aleksandr
18.08.2018
06:12:01

Google

Kirill
18.08.2018
12:00:46
А еще ClickHouse используют в xHamster :)

dmks
18.08.2018
12:06:20
И ща все сделают вид что воооооообще никогда о таких не слышали

Egor
18.08.2018
14:25:09
добрый день,
ситуация - есть сотни дампов из postgres, по несколько гигабайт каждый. каков наиболее эффективный способ залить это в КХ?
По всей видимости эти дампы придется первоначально залить в postgres. Есть ли возможность прямого импорта данных из постгреса или придется промежуточно выгружать данные на диск в tsv?

Victor
18.08.2018
14:27:27

Alexey
18.08.2018
14:58:21
Добрый день, мне надо сделать SELECT DISTINCT по строке (примерно 1-5% записей дублируются остальные разные) чтоб из дубликатов выбрать последний, если я заведу ее в PK это сильно поможет? (есть дргугие условия SLECT'а которые уже в PK)

Egor
18.08.2018
15:16:46

Victor
18.08.2018
15:26:59

Egor
18.08.2018
15:27:28
но и это уже помогло, спасибо
буду читать про copy ... to program

Aleksandr
18.08.2018
16:18:54
А еще ClickHouse используют в xHamster :)
Ну я к тому что ребята все таки хттп веб клиент сделали и пилят пхп клиент, жаль было бы их не упомянуть , ну и плюс они одни из самых первых заявили о крутизне КХ после внедрения :)

Alexey
18.08.2018
16:22:05

Aleksandr
18.08.2018
16:22:21
На тему?
Если веб клиент то это Tabix

Alexey
18.08.2018
16:22:44
А, ок

Aleksandr
18.08.2018
16:22:51
Если пхп клиент то это php-clickhouse
А если о внедрении нужно найти видео выступление
Сейчас попробую найти

Alexey
18.08.2018
16:23:23

Aleksandr
18.08.2018
16:24:34
Как запустить ClickHouse своими силами и выиграть джекпот
https://habr.com/post/314558/
Вот

Google

Aleksandr
18.08.2018
16:25:58
Видео пока не нашел (

Alexey
18.08.2018
16:28:04
Скажите, есть набор записей, одно поле совпадает - уникальный ID группы, нужно брать последнее значение определенного поля в группе по времени
Это решается только через GROUP by uniqID ?
Может есть хитрая ф-ция в CH которая все круто сделает?
Всего групп - сотни миллионов и стремится к бесконечности, количество повторений в группе - десяток

Artem
18.08.2018
16:51:32

Alexey
18.08.2018
16:54:46

Nikita
19.08.2018
02:25:46
Привет! Никто не замечал, что начиная где-то с версии 18.10.3 CollapsingMergeTree начал схлопывать записи совершенно рандомно? На параллельном необновлённом сервере с 18.6.0 с такими же данными такого нет. Таблица CollapsingMergeTree (date1, (string2, int3, int4), 8192, int5sign) — такое впечатление, что стал склеивать просто по string2 игнорируя всё остальное на свете.
В чейнджлоге только одно изменение про этот движок “поддежка пустых кусков после мержей в движках Summing, Collapsing and VersionedCollapsing”

Alexey
19.08.2018
03:51:27


Nikita
19.08.2018
04:11:34
У нас после обновления где-то в районе версии 1.1.54390 Кликхаус падать с сегфолтами типа
2018.08.14 03:50:29.451454 [ 223631 ] <Error> BaseDaemon: ########################################
2018.08.14 03:50:29.451482 [ 223631 ] <Error> BaseDaemon: (from thread 223630) Received signal Segmentation fault (11). где-то раз в несколько дней, поэтому начали обновлять всё время до последних версий с каждым релизом, чтобы посмотреть — может пропадёт сегфолт.
Баг с CollapsingMergeTree появился как раз в районе 13-го числа, когда вышла 18.10, затрагивает примерно 0.5% вставки. При вставки записи в составной ключ второй частью входит совершенно новый числовой id, но склеивается он почему-то с очень старыми записями (где понятное дело другой id).
Сейчас откатились на 18.6, смотрим.
Пока чистили таблицы от этих кривых мёрджей (у нас можно заново данные получить из другой БД) методом INSERT INTO … SELECT * (битые из другой БД, нормальные так) — в логе появилась пара ошибок типа число строк со знаком “1” отличается больше чем на 1 от числа строк со знаком “-1”
По сегфолту кстати целиком могу лог выложить


Alexey
19.08.2018
04:49:37


Nikita
19.08.2018
04:51:07
2018.08.14 03:50:29.451454 [ 223631 ] <Error> BaseDaemon: ########################################
2018.08.14 03:50:29.451482 [ 223631 ] <Error> BaseDaemon: (from thread 223630) Received signal Segmentation fault (11).
2018.08.14 03:50:29.451488 [ 223631 ] <Error> BaseDaemon: Address: 0x50d8
2018.08.14 03:50:29.451492 [ 223631 ] <Error> BaseDaemon: Access: write.
2018.08.14 03:50:29.451498 [ 223631 ] <Error> BaseDaemon: Address not mapped to object.
2018.08.14 03:50:29.481747 [ 223631 ] <Error> BaseDaemon: 0. [0xbb070008]
2018.08.14 03:50:29.481783 [ 223631 ] <Error> BaseDaemon: 1. /usr/bin/clickhouse-server(DB::MemoryBlockInputStream::readImpl()+0x836) [0x4faa646]
2018.08.14 03:50:29.481795 [ 223631 ] <Error> BaseDaemon: 2. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.481805 [ 223631 ] <Error> BaseDaemon: 3. /usr/bin/clickhouse-server(DB::FilterBlockInputStream::readImpl()+0xa9) [0x51cfba9]
2018.08.14 03:50:29.481816 [ 223631 ] <Error> BaseDaemon: 4. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.481826 [ 223631 ] <Error> BaseDaemon: 5. /usr/bin/clickhouse-server(DB::ExpressionBlockInputStream::readImpl()+0x2e) [0x51cefde]
2018.08.14 03:50:29.481836 [ 223631 ] <Error> BaseDaemon: 6. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.481846 [ 223631 ] <Error> BaseDaemon: 7. /usr/bin/clickhouse-server(DB::PartialSortingBlockInputStream::readImpl()+0x2e) [0x520a7ce]
2018.08.14 03:50:29.481856 [ 223631 ] <Error> BaseDaemon: 8. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.481877 [ 223631 ] <Error> BaseDaemon: 9. /usr/bin/clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::l
oop(unsigned long)+0x125) [0x4e81bc5]
2018.08.14 03:50:29.481895 [ 223631 ] <Error> BaseDaemon: 10. /usr/bin/clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::
thread(MemoryTracker*, unsigned long)+0x219) [0x4e82479]
2018.08.14 03:50:29.481905 [ 223631 ] <Error> BaseDaemon: 11. /usr/bin/clickhouse-server() [0x938cc0f]
2018.08.14 03:50:29.481915 [ 223631 ] <Error> BaseDaemon: 12. /lib/x86_64-linux-gnu/libpthread.so.0(+0x7494) [0x7f8cfe0d4494]
2018.08.14 03:50:29.481937 [ 223631 ] <Error> BaseDaemon: ########################################
2018.08.14 03:50:29.481946 [ 223631 ] <Error> BaseDaemon: (from thread 223632) Received signal Segmentation fault (11).
2018.08.14 03:50:29.481953 [ 223631 ] <Error> BaseDaemon: Address: 0x30730
2018.08.14 03:50:29.481967 [ 223631 ] <Error> BaseDaemon: Access: read.
2018.08.14 03:50:29.481974 [ 223631 ] <Error> BaseDaemon: Address not mapped to object.
2018.08.14 03:50:29.505355 [ 223631 ] <Error> BaseDaemon: 0. [0xa690b002]
2018.08.14 03:50:29.505364 [ 223631 ] <Error> BaseDaemon: 1. /usr/bin/clickhouse-server(DB::MemoryBlockInputStream::readImpl()+0x836) [0x4faa646]
2018.08.14 03:50:29.505370 [ 223631 ] <Error> BaseDaemon: 2. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.505376 [ 223631 ] <Error> BaseDaemon: 3. /usr/bin/clickhouse-server(DB::FilterBlockInputStream::readImpl()+0xa9) [0x51cfba9]
2018.08.14 03:50:29.505381 [ 223631 ] <Error> BaseDaemon: 4. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.505386 [ 223631 ] <Error> BaseDaemon: 5. /usr/bin/clickhouse-server(DB::ExpressionBlockInputStream::readImpl()+0x2e) [0x51cefde]
2018.08.14 03:50:29.505392 [ 223631 ] <Error> BaseDaemon: 6. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.505397 [ 223631 ] <Error> BaseDaemon: 7. /usr/bin/clickhouse-server(DB::PartialSortingBlockInputStream::readImpl()+0x2e) [0x520a7ce]
2018.08.14 03:50:29.505402 [ 223631 ] <Error> BaseDaemon: 8. /usr/bin/clickhouse-server(DB::IProfiling
BlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.505410 [ 223631 ] <Error> BaseDaemon: 9. /usr/bin/clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::loop(unsigned long)+0x125) [0x4e81bc5]
2018.08.14 03:50:29.505418 [ 223631 ] <Error> BaseDaemon: 10. /usr/bin/clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::thread(MemoryTracker*, unsigned long)+0x219) [0x4e82479]
2018.08.14 03:50:29.505422 [ 223631 ] <Error> BaseDaemon: 11. /usr/bin/clickhouse-server() [0x938cc0f]
2018.08.14 03:50:29.505427 [ 223631 ] <Error> BaseDaemon: 12. /lib/x86_64-linux-gnu/libpthread.so.0(+0x7494) [0x7f8cfe0d4494]
2018.08.14 03:50:29.505433 [ 223631 ] <Error> BaseDaemon: ########################################
2018.08.14 03:50:29.505439 [ 223631 ] <Error> BaseDaemon: (from thread 223633) Received signal Segmentation fault (11).
2018.08.14 03:50:29.505443 [ 223631 ] <Error> BaseDaemon: Address: 0x50d7
2018.08.14 03:50:29.505447 [ 223631 ] <Error> BaseDaemon: Access: write.
2018.08.14 03:50:29.505451 [ 223631 ] <Error> BaseDaemon: Address not mapped to object.
2018.08.14 03:50:29.528330 [ 223631 ] <Error> BaseDaemon: 0. [0x5210903f]
2018.08.14 03:50:29.528338 [ 223631 ] <Error> BaseDaemon: 1. /usr/bin/clickhouse-server(DB::MemoryBlockInputStream::readImpl()+0x836) [0x4faa646]
2018.08.14 03:50:29.528343 [ 223631 ] <Error> BaseDaemon: 2. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.528348 [ 223631 ] <Error> BaseDaemon: 3. /usr/bin/clickhouse-server(DB::FilterBlockInputStream::readImpl()+0xa9) [0x51cfba9]
2018.08.14 03:50:29.528353 [ 223631 ] <Error> BaseDaemon: 4. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.528358 [ 223631 ] <Error> BaseDaemon: 5. /usr/bin/clickhouse-server(DB::ExpressionBlockInputStream::readImpl()+0x2e) [0x51cefde]
2018.08.14 03:50:29.528364 [ 223631 ] <Error> BaseDaemon: 6. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.528369 [ 223631 ] <Error> BaseDaemon: 7. /usr/bin/clickhouse-server(DB::PartialSortingBlockInputStream::readImpl()+0x2e) [0x520a7ce]
2018.08.14 03:50:29.528374 [ 223631 ] <Error> BaseDaemon: 8. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.528386 [ 223631 ] <Error> BaseDaemon: 9. /usr/bin/clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::loop(unsigned long)+0x125) [0x4e81bc5]
2018.08.14 03:50:29.528396 [ 223631 ] <Error> BaseDaemon: 10. /usr/bin/clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::thread(MemoryTracker*, unsigned long)+0x219) [0x4e82479]
2018.08.14 03:50:29.528402 [ 223631 ] <Error> BaseDaemon: 11. /usr/bin/clickhouse-server() [0x938cc0f]
2018.08.14 03:50:29.528406 [ 223631 ] <Error> BaseDaemon: 12. /lib/x86_64-linux-gnu/libpthread.so.0(+0x7494) [0x7f8cfe0d4494]
2018.08.14 03:50:29.528412 [ 223631 ] <Error> BaseDaemon: ########################################
2018.08.14 03:50:29.528418 [ 223631 ] <Error> BaseDaemon: (from thread 205) Received signal Segmentation fault (11).
2018.08.14 03:50:29.528422 [ 223631 ] <Error> BaseDaemon: Address: 0x1
2018.08.14 03:50:29.528426 [ 223631 ] <Error> BaseDaemon: Access: read.
2018.08.14 03:50:29.528430 [ 223631 ] <Error> BaseDaemon: Address not mapped to object.
2018.08.14 03:50:29.563819 [ 223631 ] <Error> BaseDaemon: 0. /usr/bin/clickhouse-server(tcmalloc::ThreadCache::ReleaseToCentralCache(tcmalloc::ThreadCache::FreeList*, unsigned long, int)+0x11b) [0x5a698eb]
2018.08.14 03:50:29.563827 [ 223631 ] <Error> BaseDaemon: 1. /usr/bin/clickhouse-server(tcmalloc::ThreadCache::ListTooLong(tcmalloc::ThreadCache::FreeList*, unsigned long)+0x1c) [0x5a6998c]
2018.08.14 03:50:29.563833 [ 223631 ] <Error> Ba
seDaemon: 2. /usr/bin/clickhouse-server(tc_deletearray+0x369) [0x9406529]
2018.08.14 03:50:29.563838 [ 223631 ] <Error> BaseDaemon: 3. /usr/bin/clickhouse-server(DB::StorageMemory::drop()+0x1d1) [0x4fa6391]
2018.08.14 03:50:29.563850 [ 223631 ] <Error> BaseDaemon: 4. /usr/bin/clickhouse-server(DB::InterpreterDropQuery::executeToTable(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> >&, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> >&, DB::ASTDropQuery::Kind, bool, bool)+0x1102) [0x4e5ef02]
2018.08.14 03:50:29.563856 [ 223631 ] <Error> BaseDaemon: 5. /usr/bin/clickhouse-server(DB::InterpreterDropQuery::execute()+0x345) [0x4e61db5]
2018.08.14 03:50:29.563861 [ 223631 ] <Error> BaseDaemon: 6. /usr/bin/clickhouse-server() [0x4ef181b]
2018.08.14 03:50:29.563874 [ 223631 ] <Error> BaseDaemon: 7. /usr/bin/clickhouse-server(DB::executeQuery(DB::ReadBuffer&, DB::WriteBuffer&, bool, DB::Context&, std::function<void (std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)>)+0x116) [0x4ef29c6]
2018.08.14 03:50:29.563881 [ 223631 ] <Error> BaseDaemon: 8. /usr/bin/clickhouse-server(DB::HTTPHandler::processQuery(Poco::Net::HTTPServerRequest&, HTMLForm&, Poco::Net::HTTPServerResponse&, DB::HTTPHandler::Output&)+0x3147) [0x2dd2a37]
2018.08.14 03:50:29.563887 [ 223631 ] <Error> BaseDaemon: 9. /usr/bin/clickhouse-server(DB::HTTPHandler::handleRequest(Poco::Net::HTTPServerRequest&, Poco::Net::HTTPServerResponse&)+0x248) [0x2dd4b48]
2018.08.14 03:50:29.563893 [ 223631 ] <Error> BaseDaemon: 10. /usr/bin/clickhouse-server(Poco::Net::HTTPServerConnection::run()+0x332) [0x58cce02]
2018.08.14 03:50:29.563898 [ 223631 ] <Error> BaseDaemon: 11. /usr/bin/clickhouse-server(Poco::Net::TCPServerConnection::start()+0xf) [0x58c56af]
2018.08.14 03:50:29.563903 [ 223631 ] <Error> BaseDaemon: 12. /usr/bin/clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x16a) [0x58c5a8a]
2018.08.14 03:50:29.563909 [ 223631 ] <Error> BaseDaemon: 13. /usr/bin/clickhouse-server(Poco::PooledThread::run()+0x77) [0x5966e97]
2018.08.14 03:50:29.563915 [ 223631 ] <Error> BaseDaemon: 14. /usr/bin/clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0x38) [0x5962d58]
2018.08.14 03:50:29.563919 [ 223631 ] <Error> BaseDaemon: 15. /usr/bin/clickhouse-server() [0x938cc0f]
2018.08.14 03:50:29.563924 [ 223631 ] <Error> BaseDaemon: 16. /lib/x86_64-linux-gnu/libpthread.so.0(+0x7494) [0x7f8cfe0d4494]
2018.08.14 03:50:29.563936 [ 223631 ] <Error> BaseDaemon: ########################################
2018.08.14 03:50:29.563942 [ 223631 ] <Error> BaseDaemon: (from thread 223634) Received signal Segmentation fault (11).
2018.08.14 03:50:29.563947 [ 223631 ] <Error> BaseDaemon: Address: 0x2db88f9
2018.08.14 03:50:29.563957 [ 223631 ] <Error> BaseDaemon: Access: write.
2018.08.14 03:50:29.563961 [ 223631 ] <Error> BaseDaemon: Attempted access has violated the permissions assigned to the memory area.
2018.08.14 03:50:29.563974 [ 223631 ] <Error> BaseDaemon: ########################################
2018.08.14 03:50:29.563978 [ 223631 ] <Error> BaseDaemon: (from thread 223635) Received signal Illegal instruction (4).
2018.08.14 03:50:29.563983 [ 223631 ] <Error> BaseDaemon: Illegal operand.
2018.08.14 03:50:29.586460 [ 223631 ] <Error> BaseDaemon: 0. [0x74511000]
2018.08.14 03:50:29.586468 [ 223631 ] <Error> BaseDaemon: 1. /usr/bin/clickhouse-server(DB::MemoryBlockInputStream::readImpl()+0x836) [0x4faa646]
2018.08.14 03:50:29.586473 [ 223631 ] <Error> BaseDaemon: 2. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.586478 [ 223631 ] <Error> BaseDaemon: 3. /usr/bin/clickhouse-server(DB::FilterBlockInputStream::readImpl()+0xa9) [0x51cfba9]
2018.08.14 03:50:29.586483 [ 223631 ] <Error> BaseDaemon: 4. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.586488 [ 223631 ] <Error> BaseDaemon: 5. /usr/bin/clickhouse-server(DB::ExpressionBlockInputStream::readImpl()+0x2e) [0x51cefde]
2018.08.14 03:50:2
9.586493 [ 223631 ] <Error> BaseDaemon: 6. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.586498 [ 223631 ] <Error> BaseDaemon: 7. /usr/bin/clickhouse-server(DB::PartialSortingBlockInputStream::readImpl()+0x2e) [0x520a7ce]
2018.08.14 03:50:29.586504 [ 223631 ] <Error> BaseDaemon: 8. /usr/bin/clickhouse-server(DB::IProfilingBlockInputStream::read()+0x25a) [0x4768cfa]
2018.08.14 03:50:29.586511 [ 223631 ] <Error> BaseDaemon: 9. /usr/bin/clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::loop(unsigned long)+0x125) [0x4e81bc5]
2018.08.14 03:50:29.586519 [ 223631 ] <Error> BaseDaemon: 10. /usr/bin/clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::thread(MemoryTracker*, unsigned long)+0x219) [0x4e82479]
2018.08.14 03:50:29.586523 [ 223631 ] <Error> BaseDaemon: 11. /usr/bin/clickhouse-server() [0x938cc0f]
2018.08.14 03:50:29.586528 [ 223631 ] <Error> BaseDaemon: 12. /lib/x86_64-linux-gnu/libpthread.so.0(+0x7494) [0x7f8cfe0d4494]

Google

Nikita
19.08.2018
04:51:55
Файлом если удобнее, иначе в несколько сообщений бьёт

Alexey
19.08.2018
05:31:47
По стек трейсу на первый взгляд непонятно, в чём проблема. Надо обсудить в личке, как отладить.

Timur
19.08.2018
07:57:12
Добрый день, подскажите пожалуйста как оптимальнее вывести nested со структурой name/ value?? Чтобы в выводе был формат 1,1,1,1,1,[aaa:bbb,ccc:ddd], где aaa name bbb value
1,1,1,1,1 это значения из родительской таблицы
Ccc - name, ddd - value

Aleksandr
19.08.2018
10:52:56
Да вот это
нашел видео сегодня: https://www.youtube.com/watch?v=tf38TPvwjJ4&t=5s

Vladimir
19.08.2018
11:36:31

Vladislav
19.08.2018
11:42:24
Всем привет.
Ищу разработчика, который сможет реализовать и запулить(и что бы приняли) функцию аналогичную функции lag в oracle.
Мы когда-то делали на основе RunningDifferent, но не получилось реализовать для string, там как-то сложно получалось.

Vladimir
19.08.2018
15:43:10

Alexey
19.08.2018
15:43:21
добрый вечер, а можно ли в SummingTree использовать дату в WHERE, счетчики будут корректно показываться (без FINAL но с sum() и group by user_id)?

Denis
19.08.2018
16:04:36
Да, можно. И where и prewhere.

Vladislav
19.08.2018
16:04:58

Nick
19.08.2018
17:55:49
Добрый вечер. Если честно так и не понял для чего нужен chproxy https://github.com/Vertamedia/chproxy
Размазывает нагрузку на несколько нод кластера но все-равно через disturbed таблицу?

Roman
19.08.2018
18:05:18

Mike
19.08.2018
18:12:17

Roman
19.08.2018
18:14:21
Попробую кратко описать юзкейсы:
- равномерно распределять вставки по шардам кластера без использования дистрибьютед таблицы. chproxy каждый раз выбирает следующий наименее загруженный "живой" шард (least-loaded + round-robin)
- равномерно распределять нагрузки при чтении из кластера
- кешировать ответы от КХ (отлично подходит для систем визуализации вроде Grafana)
- лимитировать доступ к кластеру по пользователям или адресам
- контролировать кол-во одновременно выполняющихся запросов и максимальное время их выполнения
- избежать перегрузки кластера при аномальном повышении кол-ва запросов путем выстроения их в очередь
- автоматическая выписка https сертификатов

Vladislav
19.08.2018
18:15:34
А так можно?
В смысле?
Я ищу разработчика за деньги, конечно же. Который сможет реализовать и довести задачу до пул реквеста. По деньгам не обижу. :)

Nick
19.08.2018
18:16:09
в чем фишка не использовать дистрибьютед таблицы ?

Roman
19.08.2018
18:18:45

Google

Nick
19.08.2018
18:19:29
это я понимаю, но почему chproxy избегает их использование для вставки данных?

Roman
19.08.2018
18:23:23
Так рекомендуется делать при больших объемах данных, чтобы избежать перегрузки ноды, на которой производится вставка. Т.е. вы можете так делать, но писать данные на конкретный шард - более оптимально

Michal
20.08.2018
05:06:22

Vadim
20.08.2018
05:49:33
Кто-то сталкивался с тем, что INSERT ... SELECT
прочитывает примерно 30-40% исходной таблицы и вставляет около того, не выводя ошибок ?

Michal
20.08.2018
05:52:01

Vadim
20.08.2018
06:08:45
Может быть какие-то лимиты срабатывают? Проверьте SELECT * FROM system.settings WHERE changed = 1
Да, есть измененные:
│ max_query_size │ 10485760 │ 1 │
│ use_uncompressed_cache │ 0 │ 1 │
│ background_pool_size │ 50 │ 1 │ │
│ background_schedule_pool_size │ 24 │ 1 │ │
│ load_balancing │ random │ 1 │ │
│ max_rows_to_read │ 600000000000 │ 1 │ │
│ max_execution_time │ 60 │ 1 │ │
│ timeout_overflow_mode │ break │ 1 │ │
│ max_ast_elements │ 1000000 │ 1 │ │
│ max_memory_usage │ 40000000000 │ 1 │
что может ограничивать? max_query_size ?