@clickhouse_ru

Страница 530 из 723
Diomid
16.05.2018
17:45:09
Т.е в конфиге раздел <remote_servers> не трогать. Ок, а можете пожалуйста пример минимального запроса на создание параметров ReplicatedMergeTree привести. Не понимаю, как это без параметров. Ну и да, со стороны zookeeper никаких дополнительных настроек не нужно ведь?

Tatiana
16.05.2018
17:46:23
https://clickhouse.yandex/docs/ru/table_engines/replication/#_2

путь к таблице в ZooKeeper должен быть одинаковый для всех реплик одной и той же таблицы

Diomid
16.05.2018
17:48:40
Да, я это видел. Но все-таки... '/clickhouse/tables/{layer}-{shard}/hits' Что значит использовать не обязательно? Просто оставить прям так? Или опустить их вообще?

Google
Tatiana
16.05.2018
17:49:26
ReplicatedMergeTree('/tratata/bububu', 'lalala', EventDate, intHash32(UserID), (CounterID, EventDate, intHash32(UserID), EventTime), 8192)

Diomid
16.05.2018
17:50:09
Спасибо!

Tatiana
16.05.2018
17:51:30
когда вам понадобится создать 20 таблиц на 10 репликах, вы поймете, зачем нужны макросы :)

Diomid
16.05.2018
17:53:03
Это да, но вопрос другой, что туда подставлять) Если у меня нету шардов например.

Tatiana
16.05.2018
17:53:20
ничего не подставляйте

это просто имя ноды в ЗуКипере

Diomid
16.05.2018
17:57:10
тоже ковыряюсь. кое-как взлетело вчера, но пока многое наощупь
Получилось сделать INSERT на одном КХ и увидеть данные на другом? з.ы Можно будет если что, в личку пару вопросов? Дабы не засорять общий чат.

Egor
16.05.2018
17:57:29
да, пиши, можно совместно мучиться

Diomid
16.05.2018
18:24:20
Сбросил все, пересоздал заново. Сделал на одном инстансе КХ insert, все ок. На втором в логе сыпется 2018.05.16 18:20:26.593703 [ 8 ] <Error> test.test1 (StorageReplicatedMergeTree): DB::StorageReplicatedMergeTree::queueTask()::<lambda(DB::StorageReplicatedMergeTree::LogEntryPtr&)>: Poco::Exception. Code: 1000, e.code() = 111, e.displayText() = Connection refused, e.what() = Connection refused Поясните пожалуйста, это ошибка откуда именно?

prll
16.05.2018
18:41:36
сервер не смог достучаться до другого сервера

Diomid
16.05.2018
18:44:17
Имеется в виду один КХ до другого КХ? Или Зуукипер до другого КХ? Как один КХ обрщается до другого? Через Зуукипер же? Я нашел что-то про listen_host и interserver_http_port, может ли влиять?

Tatiana
16.05.2018
18:55:10
КХ ходит в ЗуКипер за списком операций, и на другие реплики за данными

Google
prll
16.05.2018
18:57:26
listen_host должен быть не ::1 и не 127.0.0.1

Diomid
16.05.2018
19:03:41
Все, разобрался! Всем спасибо. Совсем забыл listen_host с дефолта поменять!)

Андрей
16.05.2018
19:04:37
Почему могут не создаваться партиции на части шардов? А именно: КХ много в логах ругается на "Cannot read all data" и "No part ... in table". Вставка идёт в Distributed таблицу. При этом, каких-либо ошибок работы с данными - не видно. Все данные пишутся и читаются, ошибки именно на уровне КХ. Версия 1.1.54380. P.S. по подобной ошибке поискал в чате - чего-то полезного не нашёл.

Diomid
16.05.2018
20:33:16
Господа, а какие способы есть бекапить данные КХ?

roma
16.05.2018
20:51:29
freeze -> rsync

Igor
16.05.2018
20:53:10
Господа, а какие способы есть бекапить данные КХ?
писать данные в несколько кластеров

LeiDruid
16.05.2018
22:10:33
@garikanet, а можно в слудющем релизе табикса поправить сортировку вот тут? https://yadi.sk/i/p2NHvUDm3W39BC Сейчас литеральная сортировка, но это же числа

Это в процессах

Igor
16.05.2018
22:22:58
Egor
17.05.2018
00:25:26
Подскажите. что делаю не так? rsyslog->kafka->kafka_engine->materialized view->mergetree. Данные на мерджтри сбрасываются раз в 2-3-6 минут, как я понял, сбрасывание зависит от заполненности данных, но я хочу чтоб каждые 10 секунд данные кидались, изменил flush_interval_milliseconds - не помогло (на версии 1.1.54327 все работало, а на последней версии 1.1.54381 не сбрасывает по времени)

Egor
17.05.2018
04:55:02
Slach
17.05.2018
05:20:09
на RU можно?
Вполне только лучше всего стенд на доккр или вагрант сделать Чтобы воспроизводилось

Egor
17.05.2018
05:20:57
Вполне только лучше всего стенд на доккр или вагрант сделать Чтобы воспроизводилось
но я ничего не настраивал, кроме попытки уменьшить flush.. хотя может и не он отвечает за это, т.е с докера поднял, создал таблицы и все ок было

Slach
17.05.2018
05:24:57
Ну слелай чистый стенд и попробуй воспроизвести

Egor
17.05.2018
05:25:30
Ну слелай чистый стенд и попробуй воспроизвести
Уже, НО там где много данных приходит, около 5к рпс... то записывается сразу

а на втором около 100-200рпс, надо ждать сброса около 2-3-7 минут

Tima
17.05.2018
05:34:04
Подскажите. что делаю не так? rsyslog->kafka->kafka_engine->materialized view->mergetree. Данные на мерджтри сбрасываются раз в 2-3-6 минут, как я понял, сбрасывание зависит от заполненности данных, но я хочу чтоб каждые 10 секунд данные кидались, изменил flush_interval_milliseconds - не помогло (на версии 1.1.54327 все работало, а на последней версии 1.1.54381 не сбрасывает по времени)
Матвью не сбрасывает данные по таймауту. Пришли новые данные в исходную таблицу, к ним применяется sql-вьюхи и результат пишется в таблицу матвью. Скорее всего дело в кафке и том, как она данные доставляет в KafkaEngine (скорее всего пачками и с некими таймаутами)

Google
Tima
17.05.2018
05:36:18
Поищите в истории чата по слову kafka или кафка, тут упоминались недокументированые параметры этого движка. Возможно там есть что-то про таймауты

Tima
17.05.2018
05:54:47
Egor
17.05.2018
05:55:18
Tcpdump -i docker port .... -A

И вижу что в сторону кх идут даннны и даже какие данные

Tima

Alexsey
17.05.2018
06:52:33
привет, как можно конвертануть дату 2018-05-3 09:30:48

из строки

Alexsey
17.05.2018
06:53:21
toDateTime

в формате отстутвует один из ведущих нулей

по идее должно быть 2018-05-03 09:30:48

Konstantin
17.05.2018
06:54:35
через regexp

по идее должно быть 2018-05-03 09:30:48
https://clickhouse.yandex/docs/ru/single/#_116

Egor
17.05.2018
06:55:48
С кафкой никто помочь не сможет?

Alexsey
17.05.2018
07:03:38
спасибо

Tima
17.05.2018
07:04:36
С кафкой никто помочь не сможет?
Вы поискали недокументированные параметры движка KafkaEngine?

Egor
17.05.2018
07:07:50
Вы поискали недокументированные параметры движка KafkaEngine?
Да, я поискал, я его и до этого видел, так как ссылка есть на самой документации.

Google
Egor
17.05.2018
07:11:46
Вы поискали недокументированные параметры движка KafkaEngine?
или я плохо смотрел или там нет управления

Tima
17.05.2018
07:11:58
Так может в неё и посмотреть? https://clickhouse.yandex/docs/ru/operations/settings/settings/#stream_flush_interval_ms Или вы и писал про этот параметр?

Tima
17.05.2018
07:13:46
Тогда создавайте issue

Egor
17.05.2018
07:14:09
Тогда создавайте issue
<stream_flush_interval_ms>5000</stream_flush_interval_ms> bи не помогает

Tima
17.05.2018
07:14:23
Либо сделайте скрипт, по крону переносящий данные из кафко-таблицы в таблицу

Egor
17.05.2018
07:15:02
уже 424 секунд нет данных, точнее не флушится

Alexsey
17.05.2018
08:09:22
не подскажете как сделать счетчик по условию - инкрементить (строки)

Alexsey
17.05.2018
08:13:15
спасибо

тоже не задокументированная?

Vasily
17.05.2018
08:15:48
https://clickhouse.yandex/docs/ru/agg_functions/combinators/

Stas
17.05.2018
08:20:16
тоже не задокументированная?
Советую так же вам функции в таблице функций искать - много нового для себя откроете :)

Kirill
17.05.2018
08:28:44
Кто помнит подскажите пожалуйста, вчера Алексей упоминал реализацию какого алгоритма для точного поиска подстроки? На _В_

Stas
17.05.2018
08:35:38
Коллеги, про with хотел уточнить, я верно понимаю, что он позволяет задать фактически переменные сверху запроса и далее их использовать внутри? Где можно по подробнее почитать ?)

Yuran
17.05.2018
09:04:27
Прошу прощения, если уже задавали этот вопрос — будут ли записи с прошедшего митапа https://events.yandex.ru/events/meetings/16-May-2018/ ?

Google
Alexey
17.05.2018
10:40:24
Есть ли варианты ускорить доставку данных в локальные таблицы из папки Distributed? Из-за кривой вьюхи там скопилось 150Gb.

Wolf
17.05.2018
10:41:12
Удалить и вставлять напрямую в конечные таблицы?

Alexey
17.05.2018
10:42:05
то, что там накопилось, приезжает из сислогов, тех сислогов уже давно нет

Wolf
17.05.2018
10:42:36
Ну просто ждите, 150 гигов быстро разойдутся

Alexey
17.05.2018
10:42:40
начало рассасываться, но медленно это делает ппц

Wolf
17.05.2018
10:42:51
Во что упирается то?

Alexey
17.05.2018
10:43:36
на сервере все норм, диски процы не упираются

но вот щас за минуту 4 мегабайта ушло только

Wolf
17.05.2018
10:49:19
Ну логи посмотрите все, что то не так со скоростью и явно это не связано с реальной скоростью

Alexey
17.05.2018
10:53:52
Логи норм

Alex
17.05.2018
11:17:45
Можно попробовать выставить настройку distributed_directory_monitor_batch_inserts в 1 у дефолтного профиля и перезапустить сервер

Stas
17.05.2018
11:19:19
Коллеги, а размножать массив в строки лучше всего array_join да?

Mike
17.05.2018
11:50:21
Коллеги, после апргрейда одной из нод с 380->381 посыпалось " No replica has part covering 1023_1831_2695_4 and a merge is impossible: we didn't find smaller parts with either the same min block or the same max block. 2018.05.17 14:37:58.862615 [ 20 ] <Error> dnl.dnl_log_local (StorageReplicatedMergeTree, PartCheckThread): Part 1023_1831_2695_4 is lost forever. " - вернул назад 380, какие-то проблемы с 381?

Alexey
17.05.2018
11:52:17
несовместимость репликации в разных версиях?

Mike
17.05.2018
12:06:51
ну как-то лихо между стэйблом и заплаткой его же

Страница 530 из 723