
Aleks
05.07.2017
08:59:03
Алексей продвигает CH в коридорах pgday #прямосейчас :)

Александр
05.07.2017
09:16:20
Почему может возникать ошибка DB::Exception: DDL background thread not initialized.. ?
Очевидно, что нет воркера для выполнения DDL ) Собственно вопрос, что я делаю не так? ЗК настроен, репликация работает на всех шардах, все шарды и реплики заведены корректно
Разобрался в чем проблема. В конфиге отсутсовала нужная секция для DDL запросов. Теперь другая приблуда. Например у меня недоступно 4 реплики из кластера, то по идее запрос должен отработать а другие реплики должны подхватить его после того как поднимутся, но запрос зависает и я ловлю ошибку Watching query is executing too long (121 sec.)

Google

nikoinlove
05.07.2017
09:52:15
а как users.xml перечитать?

Александр
05.07.2017
09:52:30
Он вроде как автоматически перечитывается
remote_servers, dictionaries и еще какие то блоки автоматом обновляются
Без перезапуска

papa
05.07.2017
10:26:07

Александр
05.07.2017
10:39:45
Кто-то подскажет почему create table on cluster зависает? )

Vladimir
05.07.2017
11:25:46
о как я удачно выбрал собрать 54245-ый билд )

f1yegor
05.07.2017
12:10:12
если у меня в тестовой таблице 46158 записей, то uniq() же является точным? данные вставляются одной пачкой. flaky тесты, могут падать на off by one error

Vladimir
05.07.2017
12:21:40
а напомните, кому жаловаться про несобирающийся на макоси кликхаус?

Alex
05.07.2017
12:23:24
?

Vladimir
05.07.2017
12:23:25
а все, вспомнил )

Alex
05.07.2017
12:23:38
на ипв6 жалуется из докера?)
знакомо, ребилд тоже не помог под 0.0.0.0 или ::

Google

Vladimir
05.07.2017
12:24:04
и у меня инклюд не находит
под линуксом при этом все собралось и отлично обновилось

Alex
05.07.2017
12:25:43
аналогично, он и не под всякой осью заводится. Вот пот ubuntu17 на libc6 жалуется, насколько я помню. шаманить надо

Vladimir
05.07.2017
12:25:59
а вот на рабочей железке - osx

Alex
05.07.2017
12:27:26
Запустил бы на серваке и тестил без головняка

Vladimir
05.07.2017
12:27:29
запуск на серваке сломает ее

Andrey
05.07.2017
12:54:51

Vladimir
05.07.2017
12:55:19
я уже сказал что не могу виртуалки на макбуке запускать

Andrey
05.07.2017
12:56:51
Но это совсем не виртуалка
Если мы говорим про ограничение в ресурсах - то большого оверхеда для экспериментов не будет. В отличии от полноценной виртуализации.

Vladimir
05.07.2017
12:57:53

Dmitry
05.07.2017
12:58:10
проще докер

Vladimir
05.07.2017
12:58:12
оно делает по факту виртуалку через hypervisor framework

Dmitry
05.07.2017
12:58:12
и быстрее

Vladimir
05.07.2017
12:58:16
ставит там какой-то мелкий линукс

Google

Vladimir
05.07.2017
12:58:20
и гоняет там все

Andrey
05.07.2017
12:59:27
Вы правы

Vladimir
05.07.2017
13:01:48
было б можно - я б уже давно так сделал

Denys ??
05.07.2017
13:26:10
А в чем проблема с КХ на маке?

Vladimir
05.07.2017
13:26:17
последний что я собирал был 36-ой
хочу обновиться
у меня почему-то -I один из нужных не прописывается для apple_rt

Denys ??
05.07.2017
13:26:52
https://github.com/hatarist/homebrew-clickhouse ?

Vladimir
05.07.2017
13:27:02
ибо не через хоумбрю собираю
впрочем сути не поменяет

Denys ??
05.07.2017
13:27:18
ну так это то собирается

Vladimir
05.07.2017
13:27:26
там в формуле вообще 198-ой

Denys ??
05.07.2017
13:30:19
ну devel 1.1.54214

Vladimir
05.07.2017
13:30:37
а я собираю 1.1.54245
последний стейбл

Google

Denys ??
05.07.2017
13:50:41
А, ну я хз. У меня какая то версия не собиралась, я issue создал, товарищ через пару часов поправил


Vladimir
05.07.2017
15:02:13
И все же, кто что знает по поводу такиз ошибок -
2017.07.04 12:40:00.854739 [ 2149477 ] <Warning> statistics_939.track_sharded (StorageReplicatedMergeTree, CleanupThread): Couldn't remove 20170704_20170704_68927_68927_0 from ZooKeeper: no node
2017.07.04 12:40:00.862021 [ 2149477 ] <Warning> statistics_939.track_sharded (StorageReplicatedMergeTree, CleanupThread): Couldn't remove 20170704_20170704_68925_68925_0 from ZooKeeper: no node
2017.07.04 12:40:00.865726 [ 2149477 ] <Warning> statistics_939.track_sharded (StorageReplicatedMergeTree, CleanupThread): Couldn't remove 20170704_20170704_68923_68923_0 from ZooKeeper: no node
2017.07.04 12:40:01.200600 [ 1651 ] <Error> track.Distributed.DirectoryMonitor: Code: 210, e.displayText() = DB::NetException: I/O error: Broken pipe: while reading from socket (172.33.90.30:9000), e.what() = DB::NetException, Stack trace:
0. clickhouse-server(StackTrace::StackTrace()+0x16) [0x2969826]
1. clickhouse-server(DB::WriteBufferFromPocoSocket::nextImpl()+0x5ad) [0x297de7d]
2. clickhouse-server(DB::Connection::sendData(DB::Block const&, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0xe5) [0x2b6f365]
3. clickhouse-server(DB::Connection::sendQuery(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, unsigned long, DB::Settings const*, DB::ClientInfo const*, bool)+0xc35) [0x2b709b5]
4. clickhouse-server(DB::RemoteBlockOutputStream::writePrefix()+0x6a) [0x2c25eda]
5. clickhouse-server(DB::StorageDistributedDirectoryMonitor::processFile(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&)+0x6f9) [0x2aa4cf9]
6. clickhouse-server(DB::StorageDistributedDirectoryMonitor::findFiles()+0x14c) [0x2aa680c]
7. clickhouse-server(DB::StorageDistributedDirectoryMonitor::run()+0xc5) [0x2aa6d05]
8. clickhouse-server() [0x36744ef]
9. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76ba) [0x7f03a5da46ba]
10. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7f03a53c53dd]
2017.07.04 12:40:02.187307 [ 2149362 ] <Error> statistics_44.track_sharded (Merger): Part 20170531_20170531_3696841_3710521_192 intersects previous part 20170530_20170531_3539831_3697925_986
В какую сторону смотреть и как можно избавиться от этого ада?)


Александр
05.07.2017
15:03:07
Я что-то подобное сегодня ловил
Не резолвились хосты с кх
Кх или зк берет именно хостнейм кх и по нему пытается стучаться, а не через ip )
У меня такое было

Vladimir
05.07.2017
15:07:41
У нас везде хосты прописаны :( кажись в чем=то другом.

Александр
05.07.2017
16:04:06
У меня магия с DDL ( Не работает ( Запрос зависает и все. Кто-то уже им пользовался?

Alexander
05.07.2017
17:20:22
А где можно почитать про ddl ?

Александр
05.07.2017
17:20:38
Сейчас дам ссылку
https://clickhouse.yandex/docs/ru/query_language/queries.html#ddl-on-cluster

Alexander
05.07.2017
17:21:07
Thx

Александр
05.07.2017
17:21:32
На 1.1.54245 и 1.1.54246 не взлетает :( Запросы тупо виснут и по таймауту в 120 секунд отваливаются
CREATE TABLE ttt ON CLUSTER statements
(
EventDate Date,
UserID UInt32,
CounterID UInt32,
EventTime DateTime
) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/statements', '{replica}', EventDate, (CounterID, EventDate, intHash32(UserID)), 8192)
Received exception from server:
Code: 159. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Watching query is executing too long (121 sec.).
Вот такая беда вобщем. В конфигах секция для ddl есть на всех серверах

Alexey
05.07.2017
17:36:28
Я надеюсь, что <distributed_ddl> включен в конфиге на всех серверах?

Александр
05.07.2017
17:36:39
Да
Сейчас еще раз проверю
Да, на всех серверах в конфиге есть
<distributed_ddl>
<path>/clickhouse/task_queue/ddl</path>
</distributed_ddl>
При этом репликация работает

Google

Alexey
05.07.2017
17:48:44
Посмотрим.

Александр
05.07.2017
17:49:38
Спасибо!

Alexander
05.07.2017
17:51:19
Вопрос: а какая задержка между insert в таблицу и через сколько можно оттуда их получить по select? Понятно что железо разное бывает.

Alexey
05.07.2017
17:52:57
Если вставлять не в Distributed таблицу, а напрямую, то никакой задержки нет.

Alexander
05.07.2017
17:55:45

Alexey
05.07.2017
17:57:07
Когда клиент получил ответ на INSERT запрос, данные записаны в таблицу.

Alexander
05.07.2017
18:10:24
Ок, наверное мне стоило спросить что происходит между insert и ответом на него :)

Alexey
05.07.2017
18:28:33
А в это время данные записываются в таблицу :)
Если более конкретно - данные записываются в файловую систему одной реплики (по-умолчанию). Если включить insert_quorum, то ждём подтверждения от нескольких реплик.

Alexander
05.07.2017
18:33:07
А когда компрессия происходит? При слиянии или сразу?

Vitaliy
05.07.2017
18:35:39


Александр
05.07.2017
18:37:14
Сейчас скину
<remote_servers>
<statements>
<shard>
<weight>1</weight>
<internal_replication>true</internal_replication>
<replica>
<host>10.20.116.11</host>
<port>9000</port>
</replica>
<replica>
<host>10.20.117.9</host>
<port>9000</port>
</replica>
</shard>
<shard>
<weight>1</weight>
<internal_replication>true</internal_replication>
<replica>
<host>10.20.116.12</host>
<port>9000</port>
</replica>
<replica>
<host>10.20.117.10</host>
<port>9000</port>
</replica>
</shard>
<shard>
<weight>1</weight>
<internal_replication>true</internal_replication>
<replica>
<host>10.20.118.8</host>
<port>9000</port>
</replica>
<replica>
<host>10.20.119.4</host>
<port>9000</port>
</replica>
</shard>
<shard>
<weight>1</weight>
<internal_replication>true</internal_replication>
<replica>
<host>10.20.118.7</host>
<port>9000</port>
</replica>
<replica>
<host>10.20.119.5</host>
<port>9000</port>
</replica>
</shard>
</statements>
</remote_servers>


Vitaliy
05.07.2017
18:38:09
Скорее всего проблема в том, что машинка не понимает что это именно ей запрос прилетел

Александр
05.07.2017
18:38:15
хосты типа clickhouse-s0r0 где s0 = shard 0, r0 = replica 0
Как сделать? Прописать хостнеймы в remote_servers?

Vitaliy
05.07.2017
18:40:25
Да, <host>clickhouse-s0r0</host>. Должно заработать

Александр
05.07.2017
18:40:47
Ок, сейчас попробую и отпишусь

Vitaliy
05.07.2017
18:45:36
Надо будет в следующей версии дополнительно еще по IP машинки проверять