
Andrey
13.04.2017
07:25:54
Всем привет. А с сегодняшнего митапа будет трансляция ?

Alexey
13.04.2017
08:09:12
Не будет.

Dmitry
13.04.2017
08:12:09
? а запись?

Alexey
13.04.2017
08:19:33
Будет.

Google

Dmitry
13.04.2017
08:24:54
Спасибо

Denys
13.04.2017
08:33:19
Ребята, а что с сайтом? Ссылка на документацию не работает :(

Andrey
13.04.2017
08:38:12
у меня все ок
https://clickhouse.yandex/reference_ru.html

Denys
13.04.2017
08:49:06
Най сайте ссылка ведет сюда https://clickhouse.yandex/ru/reference_en.html

f1yegor
13.04.2017
10:32:15
у кого-нибудь есть пример запросов со словарем с сложным ключом?
т.е. вместо колонки я буду писать dictGetString('dict_name', 'attr_name', tuple('field1', 123))

Vladimir
13.04.2017
10:41:16
dictGetFloat32('weights', 'weight', tuple(toString(template), toString(element), toString(value)))


Andrey
13.04.2017
12:29:08
Ребят, в какую сторону копать?
2017.04.13 15:22:27.834697 [ 178247 ] <Error> executeQuery: Code: 9, e.displayText() = DB::Exception: Size of filter doesn't match size of column., e.what() = DB::Exception (from [::1]:37346) (in query: select * from my_table where id >=441098428 order by id limit 10)
, Stack trace:
0. clickhouse-server(StackTrace::StackTrace()+0x16) [0x1e293b6]
1. clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x1f) [0x106bcdf]
2. clickhouse-server(DB::ColumnVector<unsigned char>::filter(DB::PODArray<unsigned char, 4096ul, Allocator<false>, 15ul> const&, long) const+0x3be) [0x1e6959e]
3. clickhouse-server(DB::ColumnNullable::filter(DB::PODArray<unsigned char, 4096ul, Allocator<false>, 15ul> const&, long) const+0x4e) [0x1e5dede]
4. clickhouse-server(DB::FilterBlockInputStream::readImpl()+0xc6c) [0x2b2980c]
5. clickhouse-server(DB::IProfilingBlockInputStream::read()+0x31a) [0x1807eaa]
6. clickhouse-server(DB::ExpressionBlockInputStream::readImpl()+0x2d) [0x2b7cced]
7. clickhouse-server(DB::IProfilingBlockInputStream::read()+0x31a) [0x1807eaa]
8. clickhouse-server(DB::PartialSortingBlockInputStream::readImpl()+0x2d) [0x2c8f74d]
9. clickhouse-server(DB::IProfilingBlockInputStream::read()+0x31a) [0x1807eaa]
10. clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::loop(unsigned long)+0x152) [0x1f3d782]
11. clickhouse-server(DB::ParallelInputsProcessor<DB::UnionBlockInputStream<(DB::StreamUnionMode)0>::Handler, (DB::StreamUnionMode)0>::thread(MemoryTracker*, unsigned long)+0x77) [0x1f3de57]
12. clickhouse-server() [0x35bc8ef]
13. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76ba) [0x7f7e90a8f6ba]
14. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7f7e900b082d]
id имеет тип UInt64


Vladislav
13.04.2017
12:36:48
у меня такое было при наличии в таблице nullable-столбцов

Dig
13.04.2017
12:37:55
Добрый день всем! Есть непонятки с функцией cityHash64.
CREATE TABLE test
(
date Date,
isp String,
ispHash Int64 MATERIALIZED cityHash64(isp)
)
ENGINE = MergeTree(date, (date,isp), 8192)
insert into test (date,isp) values ('2017-01-01', 'Yahoo')
insert into test (date,isp) values ('2017-01-01', 'Hotmail')
select isp, ispHash from test
Yahoo 3964330053880547655
Hotmail -1054703215700480117
select cityHash64('Yahoo') ->3964330053880547655
select cityHash64('Hotmail') -> 17392040858009071499
Как видите для Hotmail - различные значения, соответственно не работает поиск:
select * from test where ispHash =cityHash64('Hotmail')

papa
13.04.2017
12:40:49
судя по количеству цифр, у вас cityHash - UInt64

Google

papa
13.04.2017
12:41:01
а столбец объявлен как Int64
хотя это не отменяет того факта, что -1 = 18446744073709551615 могло и сработать.

Dig
13.04.2017
12:45:53
Да, мой фаулт, должно быть UInt64. В документации не указан возвращаемый тип

Andrey
13.04.2017
12:49:43

Roman
13.04.2017
14:04:19
?

Maksim
13.04.2017
14:12:51
а можно ли в кх как-то орагнизовать такую схему - делаем запрос select в merge tree вида sum sum group field - получается некоторое количество записей около 500-100. и их держать в оперативной памяти - таблица memory, но со сроком действия - подобно кешу - записали агрегированные данные читаем с ним. как только не читаем долго время - данные пропадают (именно пачку данных которая была в рамках select запроса - ну может просто какое нибудь поле дополнительное ввести user_id) ?

f1yegor
13.04.2017
14:13:02
извиняйте, автор сказал что пока не надо

Ivan
13.04.2017
14:25:33
у нас все через nginx балансится, и там же складывается в кэш

Вася
13.04.2017
14:43:07

Владимир
13.04.2017
15:24:01
Кто-либо работает с кликхаусом в докере?

Sergei
13.04.2017
16:02:08

Konstantin
13.04.2017
16:06:07
так нечестно, как быть тем кто уже здесь?)))

Дмитрий Originall
13.04.2017
16:06:34
;)

Sune4ka
13.04.2017
16:13:12
?

Владимир
13.04.2017
16:14:21
Все с митапа?)

Sune4ka
13.04.2017
16:14:58
Я да :)

Vladislav
13.04.2017
16:20:38
Для аналитиков кликстрим ?

Pavel
13.04.2017
16:21:43
кликстрим?

Vladislav
13.04.2017
16:23:39
Скорее да, чем нет

Google

Pavel
13.04.2017
16:24:39
что это? )))

Vladislav
13.04.2017
16:25:31
Гугл ответит
Ну или яндекс ?

Pavel
13.04.2017
16:26:42
поняяяяяятно http://www.clickstreamr.com/pricing

Vladislav
13.04.2017
16:27:11
У вас буква лишняя

Pavel
13.04.2017
16:27:47
https://cran.r-project.org/web/packages/clickstream/clickstream.pdf
во

Vladislav
13.04.2017
16:30:31
Через яндекс ищите?

Andrey
13.04.2017
16:40:47
Добрый вечер!
Replication of column ColumnArray(ColumnNullable(ColumnVector<Int32>)) is not implemented.
Ловлю ошибку при array join для nested вложения, при использовании внутри nested nullable-типов.
Вопрос, будет ли добавлен функционал для таких типов в будущем? (Сейчас используем версию 1.1.54165)

Андрей
13.04.2017
17:01:46
/stat@combot

Combot
13.04.2017
17:01:46
combot.org/chat/-1001080295593
combot.org/chat/-1001080295593

Pavel
13.04.2017
17:03:23
да они на свет лезут!

Anton
13.04.2017
17:05:51
скажите пожалуйста, а есть ли у Clickhouse какие-нибудь фишки как у графовых баз данных?

Pavel
13.04.2017
17:06:05
а какие фишки есть у графовых субд?

Anton
13.04.2017
17:09:06
ну к примеру позволяют строить данные с более сложной структурой. если вы, к примеру, хотите построить грав социальных сетей и запустить на нем кластерный аналищ
при этом к примеру если память ограничена при больших объемах данных, то в графовых базах можно грузить данные в обработку по частям и памяти хватит

Pavel
13.04.2017
17:11:02
ух. хитро, я не в курсе, умеет такое или нет, очень специфичный кейс, но подождите ответа тех кто больше в теме

Anton
13.04.2017
17:11:41
ну тут почти 600 человек, думаю, хоть один-то найдется?

Pavel
13.04.2017
17:12:07
явно :)

Google

Uncel
13.04.2017
17:12:51
Наброшу https://groups.google.com/forum/m/#!topic/gremlin-users/C9K03UlQ8eU

Pavel
13.04.2017
17:12:52
а это бага или фича, что в клиенте шапка с именами таблиц едет?
select packetDirection, count() from traffic_buffer group by packetDirection;
SELECT
packetDirection,
count()
FROM traffic_buffer
GROUP BY packetDirection
↑ Progress: 50.20 million rows, 50.20 MB (489.39 million rows/s., 489.39 MB/s.) ┌─packetDirection─┬──count()─┐
│ 3 │ 73399183 │
└─────────────────┴──────────┘

Anton
13.04.2017
17:13:01
во-во)))

Pavel
13.04.2017
17:13:43