
Felixoid
07.03.2017
14:58:44
DB::Exception: Scalar subquery returned empty result.
nope

Pavel
07.03.2017
14:59:49

Felixoid
07.03.2017
15:00:18
1.1.54140

Pavel
07.03.2017
15:00:40
В 1.1.54178 это работает.

Google

Felixoid
07.03.2017
15:04:54
к сожалению, ещё какое-то время нет возможности обновиться

Andrey
07.03.2017
15:06:17
@artmkin а есть ли у clickhouse репа для ubuntu/debian? Ну чтоб оперативнее обновляться

Pavel
07.03.2017
15:08:09
https://clickhouse.yandex/#download

Andrey
07.03.2017
15:08:45
О! Спасибо!
А как часто обновляется? Там сейчас версия 1.1.54165

Dmitry
07.03.2017
15:30:05

Алексей
07.03.2017
16:20:23
Господа, а не писал ли кто тестер кликхауса как timeseries db ?
хочется понагружать его под такой нагрузкой скажетм 450к записей в секунду и посмотрет что из этого получится

Roman
07.03.2017
16:21:14
@Civiloid писал. Получил 2.4кк в секунду

Алексей
07.03.2017
16:21:36
выборки то при этом вообще шли ? :)

Roman
07.03.2017
16:22:32
насколько помню не шли

Алексей
07.03.2017
16:23:11
@Civiloid поделись чего ?

Google

Roman
07.03.2017
16:26:00
я сам экспортил данные из графита в КХ на скорости 1.5кк/s. в этом время этим КХ пользовались в штатном режиме, никто никаких тормозов не заметил, но цифр по нагрузке на чтение у меня нет

Andrey
07.03.2017
16:28:15
@rlomonosov а диски у вас какие?

Roman
07.03.2017
16:31:42
14x500 GB ssd. во время переноса графита были нагружены на 2% (iostat util). В штатном режиме нагружены на 0.5%. Они же под графитом с whisper-ом были нагружены на 50%

Алексей
07.03.2017
16:32:04

Dmitry
07.03.2017
16:37:08
Спасибо!
А это только на запись?

Vladimir
07.03.2017
16:45:59
чтение параллельно было возможно, но немного сложновато
железо в тесте было 2xE5-2620v3 (6ядер в каждом), 128GB Ram, 2x1.6TB SSD (Raid 0)
под виспером disk utilization был пояркда 50% (30к иопс на запись), в кликхаусе около 1.5% (1000 иопс)

Алексей
07.03.2017
16:48:12
уперлись я так понял в сеть ?

Vladimir
07.03.2017
16:48:14
чтение я руками делал, работало

Pavel
07.03.2017
16:48:17
сложно что-то наисать хуже whisper, чесслово
он просто дубовейший да еще и тормозной :)

Vladimir
07.03.2017
16:48:38
виспер тупой на запись, высокий write amplification, но при этом по скорости чтения он очень хорош
намного лучше чем большинство других баз

Pavel
07.03.2017
16:49:26
потому что он использует очень простой формат, я думаю
никакой компресси, никакой оптимизации

Google

Pavel
07.03.2017
16:49:43
вообще ничего

Алексей
07.03.2017
16:49:46

Vladimir
07.03.2017
16:49:48
а с udp гарантии доставки нет

Pavel
07.03.2017
16:50:29
оптимизирован на чтение?

Алексей
07.03.2017
16:50:30
tcp text. а если его gzip-нуть ?

Pavel
07.03.2017
16:50:46
его читать можно разве что напрямую из файлов данных чем-либо типа либы на Go или C++
стандартная тулза на питоне падает почти мгновенно и толкьо подпорками на gunicorn можно хоть какой-то серьезный qps выжать :/

Vladimir
07.03.2017
16:51:28

Pavel
07.03.2017
16:51:49
ну если читать из файла - то согласен. а вот если тулзами что он предоставлвяет - не думаю
я юзал его, он крутой :)

Алексей
07.03.2017
16:52:12
так парни видимо мы вышли за тематику кликхауса

Pavel
07.03.2017
16:52:14
но это не отменяет дубовости формата хранения и того, что оно хочет терабайты данных для жизни %)

Алексей
07.03.2017
16:52:31
давайте это в церкви.

Pavel
07.03.2017
16:52:32
TSDB и CH это краеугольный вопрос, на самом деле

Vladimir
07.03.2017
16:52:33
на кликхаус смотрим, но времени не хватает

Алексей
07.03.2017
16:52:48
@Civiloid было бы круто упереться в кликхаус.

Google

Pavel
07.03.2017
16:52:57
InfluxDB очень хорош

Алексей
07.03.2017
16:53:04
нет не хорош.

Pavel
07.03.2017
16:53:09
зависит от версии
и какой сторадж энджин использовался

Vladimir
07.03.2017
16:53:19
InfluxDB очень хорош
я тестировал последний раз 0.13 пристально, на 20-30% хуже виспера в питонячьем исполнении

Алексей
07.03.2017
16:53:19
1,2

Vladimir
07.03.2017
16:53:42
@pavel_odintsov у нас проблема в том что мы много пишем и много читаем.

Pavel
07.03.2017
16:54:15
@Civiloid аккмуло видели?

Алексей
07.03.2017
16:54:15

Vladimir
07.03.2017
16:54:16
поэтому большинство вещей типа biggraphite, cyanite, kairosdb, influxdb ломаются хотя виспер еще пыхтит

Pavel
07.03.2017
16:55:18
не апаче аккмуло)

Алексей
07.03.2017
16:56:33
кликхаус интересен как комбайн. метрики, отчеты, нетфлоу. вот это вот всё

Vladimir
07.03.2017
16:57:52
@pavel_odintsov а какой именно? Это то что чувак какой-то написал?
Accumuli тока

Pavel
07.03.2017
16:58:14
https://github.com/akumuli/Akumuli
:)
вот это
это embedded tsdb на тех же алгоритмах, что инфлакс

Vladimir
07.03.2017
16:58:37
да, тоже записано где-то, но мне даже по описанию что-то не понравилось в ней

Google

Pavel
07.03.2017
16:58:39
очень быстрай и на правильном языке (C++)

Vladimir
07.03.2017
16:58:56
@pavel_odintsov так у инфлакса очень много пиара, но судя по том как оно работало - кроме пиара больше ничего у них нет

Pavel
07.03.2017
16:59:18
у него есть интеграция с графаной, это решает во многом

Vladimir
07.03.2017
16:59:33
так смысл то, если оно хуже виспера

Pavel
07.03.2017
16:59:34
и быстрый апи выборки без кучи левых демонов

Vladimir
07.03.2017
16:59:36
работает

Pavel
07.03.2017
16:59:44
для кого как :)

Vladimir
07.03.2017
16:59:57
нет кластеризации плюс ко всему
это прям очень большая проблема

Pavel
07.03.2017
17:00:08
в платной версии все есть

Vladimir
07.03.2017
17:00:15
оно в платной версии работает?

Pavel
07.03.2017
17:00:27
должно я думаю, по крайне мере заявлено
оно было в инфлаксе, но было выпилено
явно для монетизации

Vladimir
07.03.2017
17:00:50
оно тогда не работало

Pavel
07.03.2017
17:01:14
а в инфалакс как данные вставляли?
по одному или батчами?
он в этом плане точь-в-точь КликХаус - если вставлять поштучно давится мгновенно
а вот если батчами по сотне тысяч записей - оч круто работает

Алексей
07.03.2017
17:01:58
./influx-stress insert cpu,host=server,location=us-west,id=myid value=10 --batch-size 20000 --series 60000000 --host http://10.36.129.72:8086 --pps 450000
Using point template: cpu,host=server,location=us-west,id=myid value=10 <timestamp>
Using batch size of 20000 line(s)
Spreading writes across 60000000 series
Throttling output to ~450000 points/sec
Using 22 concurrent writer(s)
Running until ~18446744073709551615 points sent or until ~2562047h47m16.854775807s has elapsed

Pavel
07.03.2017
17:02:31
батч 20к - ОК