
Timur
28.05.2018
11:27:40
https://gist.github.com/alexey-milovidov/2f2739347818013216139548ec989b20
Вдруг кому понадобится

Kirill
28.05.2018
11:38:37
У Алексея в Gist'ах много полезного ;)

Google

Ivan
28.05.2018
11:46:28
Все, разобрался. Спасибо!

Рулон
28.05.2018
14:43:34
Привет! Коллеги, не подскажите, яндекс осуществляет платную поддержку КХ ?

Kirill
28.05.2018
14:45:08
Яндекс - нет, а вот altinity - да. Можете у @alexanderzaitsev поспрашивать
Рулон чатика стало нехватать?

Рулон
28.05.2018
14:47:27

Ivan
28.05.2018
15:03:50
Если я в локах инстанса с репликой получаю:
2018.05.28 15:02:18.417061 [ 17 ] <Error> test.test_logs (StorageReplicatedMergeTree): DB::StorageReplicatedMergeTree::queueTask()::<lambda(DB::StorageReplicatedMergeTree::LogEntryPtr&)>: Code: 33, e.displayText() = DB::Exception: Cannot read all data, e.what() = DB::Exception, Stack trace:
чяднт?
А есть где-нибудь подробный мануал для даунов, как КХ заставить работать в реплике? По оф докам чет не собирается(

Alexander
28.05.2018
15:12:34

Daniel
28.05.2018
15:20:23

antuan
28.05.2018
15:31:34
Кто-нибудь пробовал хранить в кх числа с хотя бы двумя знаками после запятой (рубли-копейки)? Если да - насколько все плохо с погрешностями?

Dmitry
28.05.2018
15:33:12

Рулон
28.05.2018
15:33:24

Google

antuan
28.05.2018
15:33:50
Если мне нужно будет это все добро просуммировать, то, полагаю, результат будет примерно такой же как и при хранении флоата
Или если только делить после аггрегации?
К тому же непонятно как быть, если вдруг захотим повысить точность

Alex
28.05.2018
15:42:52

antuan
28.05.2018
15:43:50
После копейки да, а сатоши? :)
Пока что самое оптимальное что придумал - хранить отдельно цифры после запятой. С последующими извращениями с округлением при суммировании

Ivan
28.05.2018
16:11:56
Привет всем! Это чудо можно запустить в докеркомпоуз на вин7?

Wolf
28.05.2018
16:18:35
Если докер композ в виртуалке да, в нативной Винде вроде как то особо не получалось у людей запускать

Alex
28.05.2018
16:21:02
коллеги, подскажите пожалуйста как определить что Replicated таблица скачала все данные ? и полностью наполнена. или хотя бы где посмотреть очередь на скачивание блоков

Alexander
28.05.2018
16:22:47

Alexander Nairashvili
28.05.2018
16:23:34
возможно ли без рестарта сервера сделать load external dictionary?замена конфига не помогает, в config-preprocessed.xml всё правильно показывает, но при запросе выдаёт
No such external dictionary:

Alexander
28.05.2018
16:24:06

Alexander Nairashvili
28.05.2018
16:24:27

?
28.05.2018
16:24:31
SYSTEM RELOAD DICTIONARIES

Alexander
28.05.2018
16:24:32
Если сделать select * from system.dictionaries where name = ...

Alex
28.05.2018
16:24:41

Alexander Nairashvili
28.05.2018
16:25:21

Google

Alexander Nairashvili
28.05.2018
16:25:37
словарь - файл tab separated

Ivan
28.05.2018
16:32:20

Wolf
28.05.2018
16:34:01
Ну порт кх только

Alexander Nairashvili
28.05.2018
16:42:41

Konstantin
28.05.2018
18:54:56

Renat
29.05.2018
00:17:04
Всем привет!
Есть ли способ выполнить select только по данным из Buffer таблицы?

Рулон
29.05.2018
06:25:58
Привет Друзья! У меня есть 2 шарды, я делаю запрос и 1 сервак падает. Запрос я получу?

Stanislav
29.05.2018
06:28:45
не факт
Надо протестить...

Рулон
29.05.2018
06:29:43
Мне кажется нет. т.к нужная часть данных будет недоступна
поэтому нужно делать связку реплика шард

Stanislav
29.05.2018
06:30:10
Есть вероятность, что всё зависит от того, на какой стадии сложного запроса упадёт.
Даже в случае реплики - тоже упасть может, по-моему...

Wolf
29.05.2018
06:31:33
насколько помню при пропаже шарда запросы проходят ок
давно тестил еще при установке, возможно как то и могло поменяться поведение в новых версиях но я думаю все по старому работает .

Stanislav
29.05.2018
06:32:26
Шарда или реплики?

Wolf
29.05.2018
06:32:36
шарда
ну имею ввиду один из шардов

Kirill
29.05.2018
06:33:20
Если шард полностью недоступен то и запросы выполнятся небудут

Wolf
29.05.2018
06:33:39
ну точно не имею ввиду случай когда один шард и этот один шард не доступен

Google

Stanislav
29.05.2018
06:34:25
Кирилл, а как насчёт ситуации падения одной из реплик в процессе выполнения запроса? Будет ли запрос выполнен или таки обломается?

Kirill
29.05.2018
06:34:41
Если нужна доступность - делайте реплики, КХ сам разрулит выпадение сервера
КХ ретраит запросы, если есть кто-то живой он его найдет

Stanislav
29.05.2018
06:37:43
Ok, реплика решает, если что... Лишь бы при повторном запросе не упала следующая...

Александр
29.05.2018
06:40:16

Alexey
29.05.2018
06:41:13
Три реплики, наверное :)

Stanislav
29.05.2018
06:41:19
Параллельно несколько запросов, жрущих много памяти.
Ну и, конечно, ограниченное её количество

Alexey
29.05.2018
07:45:54
хотим бинлог мускуля в КХ складывать, не создается таблица:
CREATE TABLE BinLog.BinLog_local ON CLUSTER repl
(
day Date DEFAULT toDate(created),
time DateTime DEFAULT toDateTime(created),
created UInt64,
position UInt64,
file String,
db String,
query String,
type String DEFAULT lower(replaceRegexpOne(query, '^(\\S+)\\s.*', '\\1')),
exectime UInt32
)
ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/BinLog_local', '{replica}', day, (day, type), 8192)
e.displayText() = DB::Exception: Table structure in ZooKeeper is too different from local table structure, e.what() = DB::Exception.
Проблема вся в
type String DEFAULT lower(replaceRegexpOne(query, '^(\\S+)\\s.*', '\\1'))
, не пойму как ее экранировать надо
никто с таким не встречался?
вот так создалось
type String DEFAULT splitByChar(' ', query)[1],

Edya
29.05.2018
08:32:53
Друзья, никто не знает ответа на этот вопрос?
https://github.com/yandex/ClickHouse/issues/2399

Mariya
29.05.2018
09:05:42

Edya
29.05.2018
09:10:04
Спасибо
в идеале, конечно, хотелось бы именно sequenceMatch, который можно более гибко настривать, т.е. увеличивать лимит на то, что считать "тяжелым". В общем, будем следить за релизами :)

Дмитрий
29.05.2018
09:57:07
Всем привет, подскажите пожалуйста мне нужно перезалить данные моего кликхауса на новый серв с их модификацией. Каким методом это лучше сделать? Я попробовал в лоб: php скрипт модифицирует данные сохраняет в csv, его загружаю в новый кликхаус. Но есть проблемка, запрос ORDER BY event_time asc LIMIT any, any. выдает мне вот это: "Memory limit (for query) exceeded: would use 9.31 GiB".

?
29.05.2018
10:00:00
если памяти хватает реально, то самый быстрый хак – повысить лимиты

Дмитрий
29.05.2018
10:05:29

Alexey
29.05.2018
11:01:44
вывели несколько реплик из кластера, как из зукипера удалить инфу об этом? конфиги zookeeper.xml и zoo.cfg поправлены, зукиперы отрестарчены

Google

Alexey
29.05.2018
11:02:27
но в system.zookeeper присутствуют старые реплики для таблиц

Wolf
29.05.2018
11:02:30
ну если удалять обычным drop table
то ничего не надо делать больше

Alexey
29.05.2018
11:03:17
причем здесь drop table? убирали реплики из кластера, сами таблицы трогать не надо

Wolf
29.05.2018
11:03:48
ну стандартный и правильный способ убрать реплики это дроп тейбл оно автоматом почистит пути в зукипере
и не удалит таблицы с других реплик
а то что вы сделали это в корне не верный способ готовить кх
теперь вам надо в зукли руками удалить пути удаленных реплик
но это геморой каждый раз так делать

Alexey
29.05.2018
11:05:04
то есть надо было подропать таблицы на тех репликах, которые отцепляем...

Stanislav
29.05.2018
11:05:19
А не отреплицируется?

Wolf
29.05.2018
11:05:23
да
нет
дроп тейбл не реплицируется, дроп партишен реплицируется

Kirill
29.05.2018
11:06:02

Павел Максимов
29.05.2018
11:19:37
Всем привет. Узнал что в тестировании находится Яндекс.Облако и в нем развернут кликхаус. Это что-то наподобие бигквери от гугла будет?

Alexey
29.05.2018
11:26:58