@clickhouse_ru

Страница 544 из 723
Wolf
30.05.2018
18:22:23
Ну тогда только тулза

Внешняя которая будет чистить

Alex
30.05.2018
18:22:55
ну у меня есть и так sidecar к кх, видимо в него докину

Wolf
30.05.2018
18:30:34
ну зашел в зк и удалил

Google
Wolf
30.05.2018
18:30:34
реплики просто так же не умирают

Alex
30.05.2018
18:39:02
реплики просто так же не умирают
сдохла нода, реплику перетащит в новое место, а старый сервер будет ждать ремонта

Alexey
30.05.2018
19:50:53
а видео пока нет?
Видео организаторы обещают только через 3..4 недели.

Egor
31.05.2018
02:54:07
Кто подскажет, как лучше быть? Надо хранить РПС (уже агрегированные данные). Какой тип лучше использовать? агрегейтедмерджтри или обычный? И как понимаю лучше написать материалайзед вьюшку?

Slach
31.05.2018
04:34:48
Посмотрите в сторону carbon-clickhouse и graphite-clickhouse Если у вас данные уже аггрегированы как вы написали или вам каждый реквест в базу вставлять надо?

Tima
31.05.2018
05:44:39
Кто подскажет, как лучше быть? Надо хранить РПС (уже агрегированные данные). Какой тип лучше использовать? агрегейтедмерджтри или обычный? И как понимаю лучше написать материалайзед вьюшку?
Самое простое и верное - попробовать все варианты. Никто не может угадать вашы данные и нагрузку на них. Только эксперименты на живых данных

Tima
31.05.2018
05:49:39
В таблицу ложится все, я хочу сделать посагрегация уже вдругую таблицу
Если вам нужно ускорить некий агрегирующий запрос путем хранения его на диске - мат вьюха с движком агригейтмердтри вам в помощь

Egor
31.05.2018
05:50:23
Если вам нужно ускорить некий агрегирующий запрос путем хранения его на диске - мат вьюха с движком агригейтмердтри вам в помощь
Ок, хорошо, ну, просто не хвататет одного ТБ диска на месяц, поэтому решил хранить только агрегированные данные

Egor
31.05.2018
06:42:42
А собираете чем? Zipkin? Opentracing api? Golang?
nginx->rsyslog->kafka->kafka-engine->mview->mergetree

и надо уже с мерджтри агрегировать данные

Slach
31.05.2018
06:43:55
Ок :) понятно а всякие heka и т.п. Не пробовали для логов вместо рсислог и кафки?

Google
Egor
31.05.2018
06:44:35
Ок :) понятно а всякие heka и т.п. Не пробовали для логов вместо рсислог и кафки?
нет, а он лучше? Я бы попробовал если бы знал что именно ))

Надо логи нгинса хранить

и он умеет либо в файл либо в rsyslog

Stepan
31.05.2018
07:03:31
filebeat -> logstash -> clickhouse

Доброе утро, вопрос. У меня есть постгревая база в которой хранится первичка, потом все это дело собирается в одну большую витрину и грузится через csv в clickhouse. В первичке попадаются спецсимволы, что приводит, например, к таким ошибкам: And if your file have right number of columns, maybe it have unescaped backslash in value before tab, which cause tab has escaped. в данном конкретном случае поле выглядело так: 321\ но встречаться может любая комбинация \t \r и т.д. вопрос - как и какие специсимволы стоит экранировать? выгрузка в csv из postgres выглядит как copy (select * from table) to STDIN WITH CSV DELIMITER AS e'\t' QUOTE e'\b' NULL AS ''

Egor
31.05.2018
07:07:40
filebeat -> logstash -> clickhouse
не не...у меня как основное пока ELK, вот по тихой перехожу на схему выше

Александр
31.05.2018
07:08:07
@proller @milovidov_an спасибо за фикс https://github.com/yandex/ClickHouse/pull/2313 !!!

Egor
31.05.2018
07:09:14
Никто не решил проблему с кафкой?

То, что он пишет редко данные, т.е. materialized view очернь редко флушит

Alexander
31.05.2018
08:37:47
Так вроде же это регулируется конфигами max_insert_block_size, stream_flush_interval_ms. Или оно не работает?

Alex
31.05.2018
09:14:55
коллеги, подскажите пожалуйста, если я убиваю инстанс кликхауса через TERM, а на нем есть куски которые нет на другой реплике, дождется ли кх пока из забирут? и как мне сказать инстансу чтобы он например остановил всю запись к себе

Alex
31.05.2018
09:27:14
Нет, не дождётся.
а как лучше тогда вырубать ноды?

есть возможность какой нибудь RO режим включить?

чтоб запись на ноду не шла

Wolf
31.05.2018
09:29:53
Просто убрать ее из конфига шарда

Alex
31.05.2018
09:32:13
есть возможность какой нибудь RO режим включить?
Проще всего на стороне вашей вставлялки.

Alex
31.05.2018
09:32:48
то есть надо предупреждать вставлялку что щас кх будет недоступен?

Stanislav
31.05.2018
09:37:09
Можно фронтенд на nginx делать и исключать из апстримов того, кто вот прям щаз будет выключен

Google
Alex
31.05.2018
09:38:19
то есть надо предупреждать вставлялку что щас кх будет недоступен?
Если вы хотите мягко погасить ноду, почему бы и нет. Возможности принудительно включить ридонли сейчас нет. Можно отключить реплику от зукипера, тогда она сама перейдёт в ридонли, но выглядит странно.

Wolf
31.05.2018
09:38:42
Проще всего на стороне вашей вставлялки.
вставлялка вероятно работает через дистрибьютед таблицу

Wolf
31.05.2018
09:42:09
а там же реплика даже если переконфигурить шарды для дистрибьютед то будет писаться в нее через реплику

надо тогда удалять шард из конфига с этими репликами чтобы в них не было записи

Alex
31.05.2018
09:45:29
щас так и сделано, конфиг перегенерит из сервис дискавери и удалит ноду которая выключается, но я думал еще навесить режим RO

Alex
31.05.2018
09:45:49
И это тоже не всегда может помочь - при асинхронной записи в Distributed конфиг шарда берётся на момент INSERT-а, а не на момент собственно вставки.

Wolf
31.05.2018
09:45:50
а зачем вы ее выключаете ?

Alex
31.05.2018
09:46:16
а зачем вы ее выключаете ?
ну например нода уходит на обслуживание, кх укатывает на другую ноду

или например делается апдейт релиза

Alex
31.05.2018
09:48:47
Можно тогда отрезать 9000 порт, дождаться, пока уже вставленное отреплицируется, и уже потом выключать. Но это всё неудобно конечно. В ClickHouse предполагается, что у вас реплики никуда не переезжают и либо восстанавливаются через некоторое время на том же хосте, либо умирают с концами.

При апдейте сервера проблемы быть не должно - сервер поднимется и другие реплики стянут с него недостающие куски.

Alex
31.05.2018
09:49:37
а как вот лучше бороться в No replica has part? скажем сдохла реплика, на ней есть кусок которого нигде нет

и например реплика совсем сдохла, с концами прям

Wolf
31.05.2018
09:50:22
ну только удалить в зукипере ее путь и должна пропасть ошибки

Alex
31.05.2018
09:50:29
Это потеря небольшого количества свежих данных. Если это недопустимо, можно включать кворумную запись.

Alex
31.05.2018
09:50:52
Это потеря небольшого количества свежих данных. Если это недопустимо, можно включать кворумную запись.
в том то и дело что допустимо, но кх упорно продолжает просить этот кусок

и прям гадит в лог

ну только удалить в зукипере ее путь и должна пропасть ошибки
это ручной режим, хотелось бы чтоб такие вещи происходили автоматом, то есть корректно обрабатывались самим кх

Alex
31.05.2018
09:52:13
Непонятно, как на стороне сервера отличить случай, когда реплику вот-вот починят от случая, когда она сдохла с концами.

Google
Wolf
31.05.2018
09:52:46
если на стороне кх то только кворумная запись видимо

Alex
31.05.2018
09:53:02
Непонятно, как на стороне сервера отличить случай, когда реплику вот-вот починят от случая, когда она сдохла с концами.
ну хотя бы по таймауту, я бы не против указать опцию replica_cleanup_timeout, потому что в зукипере они у меня тоже множатся и зукипер пухнет

если на стороне кх то только кворумная запись видимо
тогда при выводе ноды на обслуживание будем получать поломку записи? кворум же сломается

так вообще кх очень неплохо себя чувствует в динамическом окружении

и проблемы по сути возникают только при большом потоке изменений в топологии, добавление удаление нод и тд

Андрей
31.05.2018
10:26:58
Коллеги,а есть где-нибудь инструкция\статья по настройке CH с Zookeeper?

Tima
31.05.2018
10:30:49
Вставляю данные за прошлые периоды, путём потокового чтения из источника, сбором пачки и записи в КХ и т.д.. Залил порядка 300кк записей и сделал проверку, не потерял ли чего. Нашел что в КХ недоехало примерно несколько тысяч (пару записей на каждый день) из 300кк. Кто-нибудь сталкивался с таким? Код заливки на nodejs, либа @apla/clickhouse Таблица MergeTree

Diomid
31.05.2018
11:01:45
Коллеги,а есть где-нибудь инструкция\статья по настройке CH с Zookeeper?
Есть, но я бы не назвал ее понятной на 100%. Сам долго мучался. Могу подсказать если что.

Kirill
31.05.2018
11:02:34
Alex
31.05.2018
11:03:10
и так все sidecarами обвешано )

Andrey
31.05.2018
11:17:41
Ребят, а киньте в меня, пожалуйста, примером best practics для построения отказоустойчивого кластера с учетом использования hdd для хранения данных. В текущем виде у нас 2 шарда с двумя репликами на двух серверах, сейчас нужно построить кластер для более ресурсоемкого проекта

Wolf
31.05.2018
11:18:28
ну в доке расказывается как поднять три шарда по две реплики с зукипером

Kirill
31.05.2018
11:18:41
мож в сам кх ее встроить а ?)
Там будет все немного сложнее чем просто выключение пропавшей реплики ?

Wolf
31.05.2018
11:18:42
собственно без разницы ссд или хдд

Andrey
31.05.2018
11:19:13
Как в доке, это понятно, а жизнь вносит свои коррективы)

Kirill
31.05.2018
11:19:41
Просто сделайте несколько шардов и всё

Google
Alex
31.05.2018
11:20:04
Там будет все немного сложнее чем просто выключение пропавшей реплики ?
ну такой функционал все равно ведь логичнее запихнуть в сам кх?

Andrey
31.05.2018
11:21:21
Просто сделайте несколько шардов и всё
Я правильно понимаю что несколько шардов держать в на одной ноде не имеет смысла?

Kirill
31.05.2018
11:22:15
ну такой функционал все равно ведь логичнее запихнуть в сам кх?
Нет, Алексей (@ztlpn) уже писал что не понятно как самим КХ определять совсем пропала реплика или ещё починиться, или подняли что-то в замен ей

Wolf
31.05.2018
11:22:27
да и несколько реплик тоже так себе держать на одной ноде

Как в доке, это понятно, а жизнь вносит свои коррективы)
мы делаем как в доке , пока жизнь не вносила корректив

Alex
31.05.2018
11:23:13
Нет, Алексей (@ztlpn) уже писал что не понятно как самим КХ определять совсем пропала реплика или ещё починиться, или подняли что-то в замен ей
ну я ж предложил сделать опциональный таймаут, по дефолту можно сделать 0, то есть не включать авточистку

это актуально для развертываний во всяких облачных штуках

Kirill
31.05.2018
11:26:41
Я правильно понимаю что несколько шардов держать в на одной ноде не имеет смысла?
Нет, это только всё усложнит. Если у вас приватный "клауд" и вы живете в контейнерах/виртаулках то да, можно уплотниться и выжать таким образом из железок больше, если нет то лучше все держать на отдельном железе

Andrey
31.05.2018
11:28:04
Т.е. по сути, если мы жадные, и у нас выделено под это два сервера, мы делаем просто реплику и все, верно?

Kirill
31.05.2018
11:28:22
ну я ж предложил сделать опциональный таймаут, по дефолту можно сделать 0, то есть не включать авточистку
Это может сильно стрельнуть, а так сделать это не сильно сложно, для развертывания в облаках лучше, пока, писать свою управлялку КХ в облаке

Andrey
31.05.2018
11:28:32
И, кстати, clickhouse дружит с zetcd?

Andrey
31.05.2018
11:29:27
Уже пробовали?

Alex
31.05.2018
11:29:34
Это может сильно стрельнуть, а так сделать это не сильно сложно, для развертывания в облаках лучше, пока, писать свою управлялку КХ в облаке
ну чего оно стрельнет? если время на поднятие нового инстанса около 10 минут при падении ноды, а время чистки уж каждый сам может выбирать, какие риски тут видите?

Kirill
31.05.2018
11:33:52
Уже пробовали?
Да, пробовали, просто zetcd, судя по всему, ребята писали чтоб проходили тесты для гошной либы Zookeeper, а это путь вникуда, если посмотреть на GitHub то создается ощущение что всё это поделие забросили

Страница 544 из 723