
Wolf
30.05.2018
18:22:23
Ну тогда только тулза
Внешняя которая будет чистить

Alex
30.05.2018
18:22:55
ну у меня есть и так sidecar к кх, видимо в него докину

Wolf
30.05.2018
18:30:34
ну зашел в зк и удалил

Google

Wolf
30.05.2018
18:30:34
реплики просто так же не умирают

Alex
30.05.2018
18:39:02

Alexey
30.05.2018
19:50:53

Egor
31.05.2018
02:54:07
Кто подскажет, как лучше быть? Надо хранить РПС (уже агрегированные данные). Какой тип лучше использовать? агрегейтедмерджтри или обычный? И как понимаю лучше написать материалайзед вьюшку?

Slach
31.05.2018
04:34:48
Посмотрите в сторону carbon-clickhouse и graphite-clickhouse
Если у вас данные уже аггрегированы как вы написали или вам каждый реквест в базу вставлять надо?

Tima
31.05.2018
05:44:39

Egor
31.05.2018
05:46:24

Tima
31.05.2018
05:49:39

Egor
31.05.2018
05:50:23

Slach
31.05.2018
06:42:07

Egor
31.05.2018
06:42:42
и надо уже с мерджтри агрегировать данные

Slach
31.05.2018
06:43:55
Ок :) понятно а всякие heka и т.п. Не пробовали для логов вместо рсислог и кафки?

Google

Egor
31.05.2018
06:44:35
Надо логи нгинса хранить
и он умеет либо в файл либо в rsyslog

Stepan
31.05.2018
07:03:31
filebeat -> logstash -> clickhouse
Доброе утро, вопрос. У меня есть постгревая база в которой хранится первичка, потом все это дело собирается в одну большую витрину и грузится через csv в clickhouse. В первичке попадаются спецсимволы, что приводит, например, к таким ошибкам:
And if your file have right number of columns, maybe it have unescaped backslash in value before tab, which cause tab has escaped.
в данном конкретном случае поле выглядело так: 321\
но встречаться может любая комбинация \t \r и т.д.
вопрос - как и какие специсимволы стоит экранировать?
выгрузка в csv из postgres выглядит как copy (select * from table) to STDIN WITH CSV DELIMITER AS e'\t' QUOTE e'\b' NULL AS ''

Egor
31.05.2018
07:07:40

Александр
31.05.2018
07:08:07
@proller @milovidov_an спасибо за фикс https://github.com/yandex/ClickHouse/pull/2313 !!!

Egor
31.05.2018
07:09:14
Никто не решил проблему с кафкой?
То, что он пишет редко данные, т.е. materialized view очернь редко флушит

Alexander
31.05.2018
08:37:47
Так вроде же это регулируется конфигами max_insert_block_size, stream_flush_interval_ms. Или оно не работает?

Alex
31.05.2018
09:14:55
коллеги, подскажите пожалуйста, если я убиваю инстанс кликхауса через TERM, а на нем есть куски которые нет на другой реплике, дождется ли кх пока из забирут? и как мне сказать инстансу чтобы он например остановил всю запись к себе

Egor
31.05.2018
09:15:42

Alex
31.05.2018
09:26:57

Alex
31.05.2018
09:27:14
есть возможность какой нибудь RO режим включить?
чтоб запись на ноду не шла

Wolf
31.05.2018
09:29:53
Просто убрать ее из конфига шарда

Alex
31.05.2018
09:32:13

Alex
31.05.2018
09:32:48
то есть надо предупреждать вставлялку что щас кх будет недоступен?

Stanislav
31.05.2018
09:37:09
Можно фронтенд на nginx делать и исключать из апстримов того, кто вот прям щаз будет выключен

Google

Alex
31.05.2018
09:38:19

Wolf
31.05.2018
09:38:42

Alex
31.05.2018
09:38:53

Wolf
31.05.2018
09:42:09
а там же реплика даже если переконфигурить шарды для дистрибьютед то будет писаться в нее через реплику
надо тогда удалять шард из конфига с этими репликами чтобы в них не было записи

Alex
31.05.2018
09:45:29
щас так и сделано, конфиг перегенерит из сервис дискавери и удалит ноду которая выключается, но я думал еще навесить режим RO

Alex
31.05.2018
09:45:49
И это тоже не всегда может помочь - при асинхронной записи в Distributed конфиг шарда берётся на момент INSERT-а, а не на момент собственно вставки.

Wolf
31.05.2018
09:45:50
а зачем вы ее выключаете ?

Alex
31.05.2018
09:46:16
или например делается апдейт релиза

Alex
31.05.2018
09:48:47
Можно тогда отрезать 9000 порт, дождаться, пока уже вставленное отреплицируется, и уже потом выключать. Но это всё неудобно конечно. В ClickHouse предполагается, что у вас реплики никуда не переезжают и либо восстанавливаются через некоторое время на том же хосте, либо умирают с концами.
При апдейте сервера проблемы быть не должно - сервер поднимется и другие реплики стянут с него недостающие куски.

Alex
31.05.2018
09:49:37
а как вот лучше бороться в No replica has part? скажем сдохла реплика, на ней есть кусок которого нигде нет
и например реплика совсем сдохла, с концами прям

Wolf
31.05.2018
09:50:22
ну только удалить в зукипере ее путь и должна пропасть ошибки

Alex
31.05.2018
09:50:29
Это потеря небольшого количества свежих данных. Если это недопустимо, можно включать кворумную запись.

Alex
31.05.2018
09:50:52
и прям гадит в лог

Alex
31.05.2018
09:52:13
Непонятно, как на стороне сервера отличить случай, когда реплику вот-вот починят от случая, когда она сдохла с концами.

Google

Konstantin
31.05.2018
09:52:20

Wolf
31.05.2018
09:52:46
если на стороне кх то только кворумная запись видимо

Alex
31.05.2018
09:53:02
так вообще кх очень неплохо себя чувствует в динамическом окружении
и проблемы по сути возникают только при большом потоке изменений в топологии, добавление удаление нод и тд

Андрей
31.05.2018
10:26:58
Коллеги,а есть где-нибудь инструкция\статья по настройке CH с Zookeeper?

Tima
31.05.2018
10:30:49
Вставляю данные за прошлые периоды, путём потокового чтения из источника, сбором пачки и записи в КХ и т.д..
Залил порядка 300кк записей и сделал проверку, не потерял ли чего. Нашел что в КХ недоехало примерно несколько тысяч (пару записей на каждый день) из 300кк.
Кто-нибудь сталкивался с таким?
Код заливки на nodejs, либа @apla/clickhouse
Таблица MergeTree

Kirill
31.05.2018
10:59:09

Diomid
31.05.2018
11:01:45

Kirill
31.05.2018
11:02:34

Alex
31.05.2018
11:03:10
и так все sidecarами обвешано )

Andrey
31.05.2018
11:17:41
Ребят, а киньте в меня, пожалуйста, примером best practics для построения отказоустойчивого кластера с учетом использования hdd для хранения данных. В текущем виде у нас 2 шарда с двумя репликами на двух серверах, сейчас нужно построить кластер для более ресурсоемкого проекта

Wolf
31.05.2018
11:18:28
ну в доке расказывается как поднять три шарда по две реплики с зукипером

Kirill
31.05.2018
11:18:41

Wolf
31.05.2018
11:18:42
собственно без разницы ссд или хдд

Andrey
31.05.2018
11:19:13
Как в доке, это понятно, а жизнь вносит свои коррективы)

Kirill
31.05.2018
11:19:41
Просто сделайте несколько шардов и всё

Google

Alex
31.05.2018
11:20:04

Andrey
31.05.2018
11:21:21

Kirill
31.05.2018
11:22:15

Wolf
31.05.2018
11:22:27
да и несколько реплик тоже так себе держать на одной ноде

Alex
31.05.2018
11:23:13
это актуально для развертываний во всяких облачных штуках

Kirill
31.05.2018
11:26:41

Andrey
31.05.2018
11:28:04
Т.е. по сути, если мы жадные, и у нас выделено под это два сервера, мы делаем просто реплику и все, верно?

Kirill
31.05.2018
11:28:22

Andrey
31.05.2018
11:28:32
И, кстати, clickhouse дружит с zetcd?

Kirill
31.05.2018
11:28:52

Andrey
31.05.2018
11:29:27
Уже пробовали?

Alex
31.05.2018
11:29:34

Kirill
31.05.2018
11:33:52
Уже пробовали?
Да, пробовали, просто zetcd, судя по всему, ребята писали чтоб проходили тесты для гошной либы Zookeeper, а это путь вникуда, если посмотреть на GitHub то создается ощущение что всё это поделие забросили