@clickhouse_ru

Страница 83 из 723
Felixoid
07.03.2017
14:58:44
DB::Exception: Scalar subquery returned empty result. nope

Pavel
07.03.2017
14:59:49
DB::Exception: Scalar subquery returned empty result. nope
А что показывает select version() ?

Felixoid
07.03.2017
15:00:18
1.1.54140

Pavel
07.03.2017
15:00:40
В 1.1.54178 это работает.

Google
Felixoid
07.03.2017
15:04:54
к сожалению, ещё какое-то время нет возможности обновиться

Andrey
07.03.2017
15:06:17
@artmkin а есть ли у clickhouse репа для ubuntu/debian? Ну чтоб оперативнее обновляться

Pavel
07.03.2017
15:08:09
https://clickhouse.yandex/#download

Andrey
07.03.2017
15:08:45
О! Спасибо!

А как часто обновляется? Там сейчас версия 1.1.54165

Алексей
07.03.2017
16:20:23
Господа, а не писал ли кто тестер кликхауса как timeseries db ?

хочется понагружать его под такой нагрузкой скажетм 450к записей в секунду и посмотрет что из этого получится

Roman
07.03.2017
16:21:14
@Civiloid писал. Получил 2.4кк в секунду

Алексей
07.03.2017
16:21:36
выборки то при этом вообще шли ? :)

Roman
07.03.2017
16:22:32
насколько помню не шли

Алексей
07.03.2017
16:23:11
@Civiloid поделись чего ?

насколько помню не шли
ну тоесть получился классический могильник :)

Google
Roman
07.03.2017
16:26:00
я сам экспортил данные из графита в КХ на скорости 1.5кк/s. в этом время этим КХ пользовались в штатном режиме, никто никаких тормозов не заметил, но цифр по нагрузке на чтение у меня нет

Andrey
07.03.2017
16:28:15
@rlomonosov а диски у вас какие?

Roman
07.03.2017
16:31:42
14x500 GB ssd. во время переноса графита были нагружены на 2% (iostat util). В штатном режиме нагружены на 0.5%. Они же под графитом с whisper-ом были нагружены на 50%

Алексей
07.03.2017
16:32:04
@Civiloid поделись чего ?
спасибо https://github.com/Civil/graphite_perf_test_go

Dmitry
07.03.2017
16:37:08
Спасибо!

А это только на запись?

Vladimir
07.03.2017
16:45:59
А это только на запись?
да, только на запись было. Диск почти не нагружен и 2.4кк было стабильно

чтение параллельно было возможно, но немного сложновато

железо в тесте было 2xE5-2620v3 (6ядер в каждом), 128GB Ram, 2x1.6TB SSD (Raid 0)

под виспером disk utilization был пояркда 50% (30к иопс на запись), в кликхаусе около 1.5% (1000 иопс)

Алексей
07.03.2017
16:48:12
уперлись я так понял в сеть ?

Vladimir
07.03.2017
16:48:14
чтение я руками делал, работало

Pavel
07.03.2017
16:48:17
сложно что-то наисать хуже whisper, чесслово

он просто дубовейший да еще и тормозной :)

Vladimir
07.03.2017
16:48:38
уперлись я так понял в сеть ?
в сеть и в том что прокся на той же машине на пару с сервером ела весь цпу

виспер тупой на запись, высокий write amplification, но при этом по скорости чтения он очень хорош

намного лучше чем большинство других баз

Pavel
07.03.2017
16:49:26
потому что он использует очень простой формат, я думаю

никакой компресси, никакой оптимизации

Google
Pavel
07.03.2017
16:49:43
вообще ничего

Vladimir
07.03.2017
16:49:48
а слали метрики в tcp ? udp ? pickle ?
tcp text protocol, pickle как мне помнится еще хуже

а с udp гарантии доставки нет

Pavel
07.03.2017
16:50:29
оптимизирован на чтение?

Алексей
07.03.2017
16:50:30
tcp text. а если его gzip-нуть ?

Pavel
07.03.2017
16:50:46
его читать можно разве что напрямую из файлов данных чем-либо типа либы на Go или C++

стандартная тулза на питоне падает почти мгновенно и толкьо подпорками на gunicorn можно хоть какой-то серьезный qps выжать :/

Vladimir
07.03.2017
16:51:28
оптимизирован на чтение?
ну примерно, читать очень просто и в общем 2 операции на произвольный момент времени

Pavel
07.03.2017
16:51:49
ну если читать из файла - то согласен. а вот если тулзами что он предоставлвяет - не думаю

я юзал его, он крутой :)

Алексей
07.03.2017
16:52:12
так парни видимо мы вышли за тематику кликхауса

Pavel
07.03.2017
16:52:14
но это не отменяет дубовости формата хранения и того, что оно хочет терабайты данных для жизни %)

Алексей
07.03.2017
16:52:31
давайте это в церкви.

Pavel
07.03.2017
16:52:32
TSDB и CH это краеугольный вопрос, на самом деле

Vladimir
07.03.2017
16:52:33
но это не отменяет дубовости формата хранения и того, что оно хочет терабайты данных для жизни %)
формат отвратительный, но мы до сих пор на нем потому что остальное еще хуже

на кликхаус смотрим, но времени не хватает

Алексей
07.03.2017
16:52:48
@Civiloid было бы круто упереться в кликхаус.

Google
Pavel
07.03.2017
16:52:57
InfluxDB очень хорош

Алексей
07.03.2017
16:53:04
нет не хорош.

Pavel
07.03.2017
16:53:09
зависит от версии

и какой сторадж энджин использовался

Vladimir
07.03.2017
16:53:19
InfluxDB очень хорош
я тестировал последний раз 0.13 пристально, на 20-30% хуже виспера в питонячьем исполнении

Алексей
07.03.2017
16:53:19
1,2

Vladimir
07.03.2017
16:53:42
@pavel_odintsov у нас проблема в том что мы много пишем и много читаем.

Pavel
07.03.2017
16:54:15
@Civiloid аккмуло видели?

Алексей
07.03.2017
16:54:15
InfluxDB очень хорош
вот сейчас на просто безумном железе от него получаю 360к в секунду.

Vladimir
07.03.2017
16:54:16
поэтому большинство вещей типа biggraphite, cyanite, kairosdb, influxdb ломаются хотя виспер еще пыхтит

@Civiloid аккмуло видели?
не щупал, где-то записан

Pavel
07.03.2017
16:55:18
не апаче аккмуло)

Алексей
07.03.2017
16:56:33
кликхаус интересен как комбайн. метрики, отчеты, нетфлоу. вот это вот всё

Vladimir
07.03.2017
16:57:52
@pavel_odintsov а какой именно? Это то что чувак какой-то написал?

Accumuli тока

Pavel
07.03.2017
16:58:14
https://github.com/akumuli/Akumuli

:)

вот это

это embedded tsdb на тех же алгоритмах, что инфлакс

Vladimir
07.03.2017
16:58:37
да, тоже записано где-то, но мне даже по описанию что-то не понравилось в ней

Google
Pavel
07.03.2017
16:58:39
очень быстрай и на правильном языке (C++)

Vladimir
07.03.2017
16:58:56
@pavel_odintsov так у инфлакса очень много пиара, но судя по том как оно работало - кроме пиара больше ничего у них нет

Pavel
07.03.2017
16:59:18
у него есть интеграция с графаной, это решает во многом

Vladimir
07.03.2017
16:59:33
так смысл то, если оно хуже виспера

Pavel
07.03.2017
16:59:34
и быстрый апи выборки без кучи левых демонов

Vladimir
07.03.2017
16:59:36
работает

Pavel
07.03.2017
16:59:44
для кого как :)

Vladimir
07.03.2017
16:59:57
нет кластеризации плюс ко всему

это прям очень большая проблема

Pavel
07.03.2017
17:00:08
в платной версии все есть

Vladimir
07.03.2017
17:00:15
оно в платной версии работает?

Pavel
07.03.2017
17:00:27
должно я думаю, по крайне мере заявлено

оно было в инфлаксе, но было выпилено

явно для монетизации

Vladimir
07.03.2017
17:00:50
оно тогда не работало

Pavel
07.03.2017
17:01:14
а в инфалакс как данные вставляли?

по одному или батчами?

он в этом плане точь-в-точь КликХаус - если вставлять поштучно давится мгновенно

а вот если батчами по сотне тысяч записей - оч круто работает

Алексей
07.03.2017
17:01:58
./influx-stress insert cpu,host=server,location=us-west,id=myid value=10 --batch-size 20000 --series 60000000 --host http://10.36.129.72:8086 --pps 450000 Using point template: cpu,host=server,location=us-west,id=myid value=10 <timestamp> Using batch size of 20000 line(s) Spreading writes across 60000000 series Throttling output to ~450000 points/sec Using 22 concurrent writer(s) Running until ~18446744073709551615 points sent or until ~2562047h47m16.854775807s has elapsed

Pavel
07.03.2017
17:02:31
батч 20к - ОК

Страница 83 из 723