
Diomid
16.05.2018
17:45:09
Т.е в конфиге раздел <remote_servers> не трогать.
Ок, а можете пожалуйста пример минимального запроса на создание параметров ReplicatedMergeTree привести. Не понимаю, как это без параметров.
Ну и да, со стороны zookeeper никаких дополнительных настроек не нужно ведь?

Tatiana
16.05.2018
17:46:23
https://clickhouse.yandex/docs/ru/table_engines/replication/#_2
путь к таблице в ZooKeeper должен быть одинаковый для всех реплик одной и той же таблицы

Diomid
16.05.2018
17:48:40
Да, я это видел.
Но все-таки...
'/clickhouse/tables/{layer}-{shard}/hits'
Что значит использовать не обязательно? Просто оставить прям так? Или опустить их вообще?

Google

Tatiana
16.05.2018
17:49:26
ReplicatedMergeTree('/tratata/bububu', 'lalala', EventDate, intHash32(UserID), (CounterID, EventDate, intHash32(UserID), EventTime), 8192)

Diomid
16.05.2018
17:50:09
Спасибо!

Tatiana
16.05.2018
17:51:30
когда вам понадобится создать 20 таблиц на 10 репликах, вы поймете, зачем нужны макросы :)

Diomid
16.05.2018
17:53:03
Это да, но вопрос другой, что туда подставлять)
Если у меня нету шардов например.

Tatiana
16.05.2018
17:53:20
ничего не подставляйте
это просто имя ноды в ЗуКипере

Egor
16.05.2018
17:56:04

Diomid
16.05.2018
17:57:10

Egor
16.05.2018
17:57:29
да, пиши, можно совместно мучиться

Diomid
16.05.2018
18:24:20
Сбросил все, пересоздал заново.
Сделал на одном инстансе КХ insert, все ок.
На втором в логе сыпется
2018.05.16 18:20:26.593703 [ 8 ] <Error> test.test1 (StorageReplicatedMergeTree): DB::StorageReplicatedMergeTree::queueTask()::<lambda(DB::StorageReplicatedMergeTree::LogEntryPtr&)>: Poco::Exception. Code: 1000, e.code() = 111, e.displayText() = Connection refused, e.what() = Connection refused
Поясните пожалуйста, это ошибка откуда именно?

prll
16.05.2018
18:41:36
сервер не смог достучаться до другого сервера

Diomid
16.05.2018
18:44:17
Имеется в виду один КХ до другого КХ?
Или Зуукипер до другого КХ?
Как один КХ обрщается до другого? Через Зуукипер же?
Я нашел что-то про listen_host и interserver_http_port, может ли влиять?

Tatiana
16.05.2018
18:55:10
КХ ходит в ЗуКипер за списком операций, и на другие реплики за данными

Google

prll
16.05.2018
18:57:26
listen_host должен быть не ::1 и не 127.0.0.1

Diomid
16.05.2018
19:03:41
Все, разобрался! Всем спасибо.
Совсем забыл listen_host с дефолта поменять!)

Андрей
16.05.2018
19:04:37
Почему могут не создаваться партиции на части шардов?
А именно: КХ много в логах ругается на "Cannot read all data" и "No part ... in table".
Вставка идёт в Distributed таблицу. При этом, каких-либо ошибок работы с данными - не видно. Все данные пишутся и читаются, ошибки именно на уровне КХ.
Версия 1.1.54380.
P.S. по подобной ошибке поискал в чате - чего-то полезного не нашёл.

Diomid
16.05.2018
20:33:16
Господа, а какие способы есть бекапить данные КХ?

roma
16.05.2018
20:51:29
freeze -> rsync

Igor
16.05.2018
20:53:10

LeiDruid
16.05.2018
22:10:33
@garikanet, а можно в слудющем релизе табикса поправить сортировку вот тут?
https://yadi.sk/i/p2NHvUDm3W39BC
Сейчас литеральная сортировка, но это же числа
Это в процессах

Igor
16.05.2018
22:22:58

Egor
17.05.2018
00:25:26
Подскажите. что делаю не так?
rsyslog->kafka->kafka_engine->materialized view->mergetree.
Данные на мерджтри сбрасываются раз в 2-3-6 минут, как я понял, сбрасывание зависит от заполненности данных, но я хочу чтоб каждые 10 секунд данные кидались, изменил flush_interval_milliseconds - не помогло (на версии 1.1.54327 все работало, а на последней версии 1.1.54381 не сбрасывает по времени)

Slach
17.05.2018
04:48:08

Egor
17.05.2018
04:55:02

Slach
17.05.2018
05:20:09
на RU можно?
Вполне только лучше всего стенд на доккр или вагрант сделать
Чтобы воспроизводилось

Egor
17.05.2018
05:20:57

Slach
17.05.2018
05:24:57
Ну слелай чистый стенд и попробуй воспроизвести

Egor
17.05.2018
05:25:30
а на втором около 100-200рпс, надо ждать сброса около 2-3-7 минут

Tima
17.05.2018
05:34:04

Egor
17.05.2018
05:34:45

Google

Tima
17.05.2018
05:36:18
Поищите в истории чата по слову kafka или кафка, тут упоминались недокументированые параметры этого движка. Возможно там есть что-то про таймауты

Egor
17.05.2018
05:41:46
Вот уже больше 2х минут не было сброса.

Tima
17.05.2018
05:54:47

Egor
17.05.2018
05:55:18
Tcpdump -i docker port .... -A
И вижу что в сторону кх идут даннны и даже какие данные
Tima

Alexsey
17.05.2018
06:52:33
привет, как можно конвертануть дату 2018-05-3 09:30:48
из строки

Konstantin
17.05.2018
06:53:05

Alexsey
17.05.2018
06:53:21
toDateTime
в формате отстутвует один из ведущих нулей
по идее должно быть 2018-05-03 09:30:48

Konstantin
17.05.2018
06:54:35
через regexp

Egor
17.05.2018
06:55:48
С кафкой никто помочь не сможет?

Konstantin
17.05.2018
07:02:09

Alexsey
17.05.2018
07:03:38
спасибо

Tima
17.05.2018
07:04:36

Egor
17.05.2018
07:07:50

Google

Egor
17.05.2018
07:11:46

Tima
17.05.2018
07:11:58
Так может в неё и посмотреть?
https://clickhouse.yandex/docs/ru/operations/settings/settings/#stream_flush_interval_ms
Или вы и писал про этот параметр?

Egor
17.05.2018
07:13:07

Tima
17.05.2018
07:13:46
Тогда создавайте issue

Egor
17.05.2018
07:14:09

Tima
17.05.2018
07:14:23
Либо сделайте скрипт, по крону переносящий данные из кафко-таблицы в таблицу

Egor
17.05.2018
07:15:02
уже 424 секунд нет данных, точнее не флушится

Alexsey
17.05.2018
08:09:22
не подскажете как сделать счетчик по условию - инкрементить (строки)

Tima
17.05.2018
08:12:56

Alexsey
17.05.2018
08:13:15
спасибо
тоже не задокументированная?

Vasily
17.05.2018
08:15:48
https://clickhouse.yandex/docs/ru/agg_functions/combinators/

Stas
17.05.2018
08:20:16

Kirill
17.05.2018
08:28:44
Кто помнит подскажите пожалуйста, вчера Алексей упоминал реализацию какого алгоритма для точного поиска подстроки? На _В_

Alex
17.05.2018
08:34:14

Kirill
17.05.2018
08:34:43

Stas
17.05.2018
08:35:38
Коллеги, про with хотел уточнить, я верно понимаю, что он позволяет задать фактически переменные сверху запроса и далее их использовать внутри? Где можно по подробнее почитать ?)

Tima
17.05.2018
08:37:46

Stas
17.05.2018
08:38:08

Yuran
17.05.2018
09:04:27
Прошу прощения, если уже задавали этот вопрос — будут ли записи с прошедшего митапа https://events.yandex.ru/events/meetings/16-May-2018/ ?

Google

Alexey
17.05.2018
10:40:24
Есть ли варианты ускорить доставку данных в локальные таблицы из папки Distributed? Из-за кривой вьюхи там скопилось 150Gb.

Wolf
17.05.2018
10:41:12
Удалить и вставлять напрямую в конечные таблицы?

Alexey
17.05.2018
10:42:05
то, что там накопилось, приезжает из сислогов, тех сислогов уже давно нет

Wolf
17.05.2018
10:42:36
Ну просто ждите, 150 гигов быстро разойдутся

Alexey
17.05.2018
10:42:40
начало рассасываться, но медленно это делает ппц

Wolf
17.05.2018
10:42:51
Во что упирается то?

Alexey
17.05.2018
10:43:36
на сервере все норм, диски процы не упираются
но вот щас за минуту 4 мегабайта ушло только

Wolf
17.05.2018
10:49:19
Ну логи посмотрите все, что то не так со скоростью и явно это не связано с реальной скоростью

Alexey
17.05.2018
10:53:52
Логи норм

Alex
17.05.2018
11:17:45
Можно попробовать выставить настройку distributed_directory_monitor_batch_inserts в 1 у дефолтного профиля и перезапустить сервер

Stas
17.05.2018
11:19:19
Коллеги, а размножать массив в строки лучше всего array_join да?

Alexey
17.05.2018
11:20:52

Mike
17.05.2018
11:50:21
Коллеги, после апргрейда одной из нод с 380->381 посыпалось " No replica has part covering 1023_1831_2695_4 and a merge is impossible: we didn't find smaller parts with either the same min block or the same max block.
2018.05.17 14:37:58.862615 [ 20 ] <Error> dnl.dnl_log_local (StorageReplicatedMergeTree, PartCheckThread): Part 1023_1831_2695_4 is lost forever.
" - вернул назад 380, какие-то проблемы с 381?

Alexey
17.05.2018
11:52:17
несовместимость репликации в разных версиях?

Mike
17.05.2018
12:06:51
ну как-то лихо между стэйблом и заплаткой его же