
Kirill
17.04.2018
08:19:38
Насчет внешнего источника для пользователей я не в курсе, может быть @milovidov_an что-то знает, но, я не думаю что Яндексу это очень нужно. Понятно что LDAP, например, нужен корпоративным пользователям, а если нужен то это только вопрос времени насколько быстро и в каком виде он появится (и кто его сделает). Сейчас, насколько мне известно, только Altinity выступает как сторонняя компания занимающаяся КХ, может еще кто-то есть и, скорее всего, инициатива должна исходить оттуда.

Slava
17.04.2018
08:20:22
спасибо за ответ

Гаврилов
17.04.2018
09:36:09
а не подскажете, как можно сделать distinct с or
типо

Google

Гаврилов
17.04.2018
09:36:09
select count(distinct A or B) from table

papa
17.04.2018
09:36:37
uniq()

Александр
17.04.2018
09:36:56
Столкнулся с ошибкой: Cannot read all array values: read just 235 of 236.
Кто-то знает в чем дело? )

papa
17.04.2018
09:37:44

Гаврилов
17.04.2018
09:39:33
число уникальных строчек

Александр
17.04.2018
09:39:36
Но странно как КХ такое пропустил оО

papa
17.04.2018
09:41:11

Konstantin
17.04.2018
09:50:24

Гаврилов
17.04.2018
09:57:32

papa
17.04.2018
09:59:01
уникальность через or. интересно. при этом A B это не boolean, да?

Гаврилов
17.04.2018
10:06:33

Alexandr
17.04.2018
10:12:41
Добрый день кто нибудь пользовался jdbc драйвером для клика? Постоянно вылетает ошибка соединения

Google

Alex
17.04.2018
10:13:42

Jen
17.04.2018
10:15:03

Alexandr
17.04.2018
10:16:17

Alex
17.04.2018
10:26:54
Подскажите, а с чем связан такой дескрипшн у свежайшего доступного пакета:
Package: clickhouse-server-base
Version: 1.1.54378
[...]
Description: DEPRECATED PACKAGE: Server binary for clickhouse

Alex
17.04.2018
10:27:15

Kirill
17.04.2018
10:59:35
Но странно как КХ такое пропустил оО
Это, видимо, у вас в Nested разные по длине колонки, сейчас КХ действительно никак это не чекает, просто пишутся как колонки где идет: название Nested структуры; точка; название колонки в структуре

Александр
17.04.2018
11:00:26

Kirill
17.04.2018
11:00:48

Alexandr
17.04.2018
11:01:07

Kirill
17.04.2018
11:01:19

prll
17.04.2018
11:10:52

Александр
17.04.2018
11:13:19
@milovidov_an @ztlpn @kochetovnicolai завести issue?
Значит регрессия, надо править
Это, видимо, у вас в Nested разные по длине колонки, сейчас КХ действительно никак это не чекает, просто пишутся как колонки где идет: название Nested структуры; точка; название колонки в структуре

Nikolai
17.04.2018
11:16:09
Да, лучше завести. При вставке, если правильно помню, действительно нет такой проверки.

Alexander Nairashvili
17.04.2018
11:26:01

Vsevolod
17.04.2018
11:27:46
вы себя недооцениваете

Fedor
17.04.2018
11:28:30

Гаврилов
17.04.2018
11:53:44
а как будет вести себя таблица join, если я начну в нее лить дубли?

Tima
17.04.2018
11:54:28

Google

Alexander
17.04.2018
12:05:11
Подскажите, пожалуйста, как и куда надо прописать use_uncompressed_cache? Да и все параметры https://clickhouse.yandex/docs/en/operations/settings/settings

Kirill
17.04.2018
12:11:14

Александр
17.04.2018
12:11:54

Nikolai
17.04.2018
12:12:25
Спасибо!

Александр
17.04.2018
12:12:32
Сейчас еще закину файлец с данными

Alexander
17.04.2018
12:13:18

Nikolai
17.04.2018
12:14:08

Александр
17.04.2018
12:15:11
Я точно не знаю. Я пытался сейчас на разных версиях с таблицей другой структуры это провернуть, что только не делал - не получилось. А вот конкретно со структурой как в issue и данными как в файле (там всего одна строка) - запрос на select * падает. На самом деле падает в любом случае, когда пытается nested прочитать

Kirill
17.04.2018
12:16:08
Добавил небольшой пример для воспроизведения

Nikolai
17.04.2018
12:24:00
Спасибо!

Александр
17.04.2018
12:35:42

Andrey
17.04.2018
12:43:32
Всем привет. Может ли кто помочь с тонкой настройкой chproxy и CH? Напишите плиз в личку. А то один разобраться не могу. Само собой не даром.
При отправке 3 партий из 1800 запросов на добавления возникают ошибки у некотрых запросов: Unknown error field: Error: read ECONNRESET
Error: [ Id: 151B87319A4EE08F; User "default"(3) proxying as "default"(3) to "127.0.0.1:8123"(8); RemoteAddr: "135.159.86.36:43190"; LocalAddr: "135.159.86.36:9090"; Duration: 2.001769892s ]: cannot reach 127.0.0.1:8123; query: ""

Kirill
17.04.2018
13:00:11
А ClickHouse на машине с chproxy есть? Он у вас на localhost запросы шлет

Andrey
17.04.2018
13:00:57
Когда сократил max_concurrent_queries с 10 до 2 ошибок стало значительно меньше

Kirill
17.04.2018
13:03:16
Т.е. вы шлете 1800 INSERT за раз ?

Wolf
17.04.2018
13:04:08
шлите один инсерт с 1800 записями это решит ваши проблемы

Andrey
17.04.2018
13:08:07
try {
await ctx.getDB().querying(query);
} catch (e) {
console.error("Error /push-call-data", query, e)
} // и таких query - 1800 - 3 раза

Google

Andrey
17.04.2018
13:09:02

Kirill
17.04.2018
13:09:33

Stanislav
17.04.2018
13:12:51
1800 INSERT - это поток или разовое?
Если разовое (скажем, раз-два в минуту) - можно и Buffer прикрутить.

Andrey
17.04.2018
13:14:15
Писать в MySQL/PostgreSQL etc )
Можите объяснить почему такие проблемы. и При уменьшении в chproxy max_concurrent_queries с 10 до 2 уменьшает количество ошибок?

Kirill
17.04.2018
13:15:29

Andrey
17.04.2018
13:16:58
Кеш что-то исправит?

Kirill
17.04.2018
13:17:47

Andrey
17.04.2018
13:20:12

Kirill
17.04.2018
13:23:23

Vyacheslav
17.04.2018
13:24:12
я такой рекомендации не видел
т.е. почему с обычными таблицами так не рекомендуется — всё предельно очевидно: каждый инсерт превращается в отдельный файл на fs. со всемы вытекающими, в том числе и с последующим мерджем

Andrey
17.04.2018
13:26:22
Причем интересная закономерность. Если 500 записей в одном потоке и поток 1 - то все отлично. Если в течении 1 сек послать послать еще один поток в 500 записей начинаются ошибки.

Kirill
17.04.2018
13:28:08

Andrey
17.04.2018
13:28:54

Google

Kirill
17.04.2018
13:30:16

Alex
17.04.2018
13:30:27
В Buffer не рекомендуется писать по одной записи потому, что это "не оптимально". Работать будет, но throughput будет всё равно значительно меньше, чем при вставке пачками. Впрочем, это почти для любой базы верно.

Vyacheslav
17.04.2018
13:32:01
это даже для памяти верно

Alex
17.04.2018
13:32:42
Ну да, вопрос в степени замедления. У Алексея в презентации с highload были замеры.

Evgeny
17.04.2018
13:37:00

Alexey
17.04.2018
13:38:05

Vsevolod
17.04.2018
13:38:34
так она же third party

Alexey
17.04.2018
13:41:15

Vsevolod
17.04.2018
13:45:29
@milovidov_an https://github.com/vstakhov/rspamd/tree/master/contrib/lc-btrie - вот что я использую
оно очень быстрое и отлично работает одновременно с v4/v6 адресами
у меня раньше были бенчмарки, но я их со временем выкинул

Alexey
17.04.2018
13:50:10

Nik
17.04.2018
13:51:33
мы для вставки используем kafka, КХ сам забирает из нее данные когда ему будет нужно

Vsevolod
17.04.2018
13:54:16
@milovidov_an преимущество префиксного дерева в том, что если есть 192.168.1.0/24 -> X и есть более специфичный префикс 192.168.1.1/32, то при поиске 192.168.1.1 будет возвращен именно он
ну вот немного померял скорость лукапов
в таблице 512 тысяч случайных ipv6 записей
91740237634 тика на 52 миллиона лукапов
или в районе 1700 тиков на лукап