@clickhouse_ru

Страница 531 из 723
آرین
17.05.2018
12:14:50
/stat@combot

Combot
17.05.2018
12:14:57
combot.org/chat/-1001080295593

Diomid
17.05.2018
12:49:03
Подскажите пожалуйста, в каком разделе конфига я могу установить опцию insert_quorum?

Рулон
17.05.2018
12:53:03
Добрый день! Подскажите пожалуйста куда копать: есть 4 сервера и 4 таблица с 4 фазной репликацией. 3 реплики работают корректно, а на 1 реплики вставляю данные таблицу а она не реплицируется. в zookeeper приписано 4 сервера

Google
Рулон
17.05.2018
12:53:45
перезапускал сервер, конфиги заново сохранял

system.zookeeper -- здесь выводится все ок

SELECT * FROM system.replicas -- все реплики активны

Александр
17.05.2018
13:03:01
Кажется нашел интересный баг с prewhere и final. Есть таблица, в ней три строки для одного PK. https://img.facedsid.ru/c8myz.jpg Запрос SELECT learnerId, version, sessions.durationTotal FROM learners FINAL ARRAY JOIN sessions PREWHERE length(sessions.durationTotal) > 0 Должен по идее вернуть 0, а вернул 26

Т.е. prewhere срабатывает еще до мерджа final?

Т.е. по логике должно быть так: 1. Сработал final и выкинул дубликаты 2. Сработал prewhere по колонке 3. Все остальное А получается судя по результату так: 1. Сработал prewhere по колонке 2. Сработал final, но мерджить нечего. Если добавить строку с поздним version, то final срабатывает 3. Все остальное

@milovidov_an @ztlpn это ожидаемое поведение или завести issue?

Pavel
17.05.2018
13:10:52
мне кажется завести issue стоит в любом случае

Александр
17.05.2018
13:17:25
Вообще если делать prewhere и where, с final в обоих случаях, то скорость меняется. Могу предположить, что не запрещено.

Больше интересует вопрос: это ожидаемое поведение или завести issue? Просто если ожидаемое, то в issue нет смысла. Если только для history и сразу туда написать ответ, что все ок.

Nikolai
17.05.2018
13:22:59
да, я тоже не вижу, чтобы это запрещалось. я не знаю, ожидаемо ли это. но во всяком случае кажется неправильным факт расхождения результатов при переносе в prewhere.

Александр
17.05.2018
13:23:42
Ок. Тогда заведу issue с описанием, а там уже решайте как быть :)

Google
Рулон
17.05.2018
13:33:31
Как удалить КХ?

Yuran
17.05.2018
13:34:32
Александр
17.05.2018
13:46:08
И еще, если в одном блоке данных присутствуют данные для одного PK, но с разными версиями, то final их почему то не мерджит...сейчас писал issue и если в одном insert ... values (), () есть две версии одного PK, то final короче выдает оба

Alexey
17.05.2018
13:48:59
https://github.com/yandex/ClickHouse/blob/master/CHANGELOG_RU.md#%D0%A3%D0%BB%D1%83%D1%87%D1%88%D0%B5%D0%BD%D0%B8%D1%8F-1

Александр
17.05.2018
13:49:20
У нас как раз 1.1.54343

Написал issue с steps to reproduce https://github.com/yandex/ClickHouse/issues/2386

Alexey
17.05.2018
14:16:12
Это отлично! А как быть с сообщением выше?
PREWHERE действительно выполняется до FINAL - в каком-то смысле это даже логично; более того, это трудно исправить.

Александр
17.05.2018
14:18:01
Konstantin
17.05.2018
14:26:35
Коллеги, кто что может сказать про метрики который КХ в графит отсылвает, на что обратить внимание первым делом? Может кто то уже разбирался с этой темой. Как извесно доки нет..

Рулон
17.05.2018
14:32:42
Code: 1000. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Access to file denied: /var/lib/clickhouse/metadata/default/test3.sql. Кто нибудь сталкивался?

Wolf
17.05.2018
14:33:33
Ну права посмотреть как минимум надо

Рулон
17.05.2018
14:41:27
Ну права посмотреть как минимум надо
Спасибо, сделал полный доступ )

SELECT * FROM system.replicas -- все реплики активны
переустановка CH не помогла, вставка в таблицу на ноде 1 не реплицируется, при вставке в эту таблицу с других нод реплицируется

т.е. из 4 нод, 1 не работает, хотя настройки полностью идентичны

нашел варнинг Found parts with the same min block and with the same max block as the missing part 201805_0_14_4. Hoping that it will eventually a$ . И различаются значения queue_size: 11 inserts_in_queue: 7

Google
nikoinlove
17.05.2018
15:13:21
подскажите, а если я получил от базы в ответ на инсерт Received exception from server (version 1.1.54343): Code: 252. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Too many parts (301). Merges are processing significantly slower than inserts.. то у меня запрос выполнился или сломался?

prll
17.05.2018
15:38:04
Не выполнился.

Yuran
17.05.2018
16:32:47
А можете пояснить, что значит следующее: Запросы вида ALTER TABLE ... DROP/DETACH PARTITION выполняются впереди очереди репликации. У нас есть проблема, что репликация ломается, если дропается партиция, в которую параллельно пишут (да, так делать в любом случае не стоит, но всё же). Означает ли это изменение, что теперь всё будет хорошо?

Wolf
17.05.2018
16:36:16
Нет

Какой смысл дропать партицию за сегодняшний день?

Евгений
17.05.2018
16:41:49
Всем привет. Подскажите в чем проблема. При создании таблицы репликации на кластер запрос висит и отваливается с ошибкой DB::Exception: Watching task /clickhouse/task_queue/ddl/query-0000000003 is executing longer than distributed_ddl_task_timeout (=180) seconds. There are 1 unfinished hosts (0 of them are currently active), they are going to execute the query in background, e.what() = DB::Exception В логах Zookeeper 2018-05-17 16:33:39,444 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaeff zxid:0x3a txntype:-1 reqpath:n/a Error Path:/clickhouse Error:KeeperErrorCode = NodeExists for /clickhouse 2018-05-17 16:33:39,447 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaf00 zxid:0x3b txntype:-1 reqpath:n/a Error Path:/clickhouse/task_queue Error:KeeperErrorCode = NodeExists for /clickhouse/task_queue 2018-05-17 16:33:39,448 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaf01 zxid:0x3c txntype:-1 reqpath:n/a Error Path:/clickhouse/task_queue/ddl Error:KeeperErrorCode = NodeExists for /clickhouse/task_queue/ddl 2018-05-17 16:33:39,469 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaf11 zxid:0x40 txntype:-1 reqpath:n/a Error Path:/clickhouse Error:KeeperErrorCode = NodeExists for /clickhouse 2018-05-17 16:33:39,471 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaf12 zxid:0x41 txntype:-1 reqpath:n/a Error Path:/clickhouse/tables Error:KeeperErrorCode = NodeExists for /clickhouse/tables

Alexey
17.05.2018
16:44:23
https://www.urbandictionary.com/define.php?term=Click%20House

Yuran
17.05.2018
16:47:07
Какой смысл дропать партицию за сегодняшний день?
За сегодняшний день и не дропаю :). Просто могут приехать старые данные или с неверной датой откуда-нибудь.

Mike
17.05.2018
16:52:22
https://www.urbandictionary.com/define.php?term=Click%20House
Вот не успеют к GDPR и будет прям точно ?

?
17.05.2018
17:12:20
?

а насколько секьюрно то, что кликхаус сообщает в деталях об отсутствии пользователя? Unknown user user1 и Wrong password for user user1 – по идее надо объединить во что-то типа bad user or password. хотя конечно отлаживать так удобнее )

Max
17.05.2018
20:39:14
Коллеги, приветсвую. Подскажите, а как бытсрее всего загрузить плоскую табличку в сотни ГБ с миллиардами строк из postgres в КХ?

Движок CollapsingMergeTree

сеть чето совсем не утилизируется

если копировать через пайп psql 'COPY' | clickhouse-client '...'

Denis
17.05.2018
21:52:58
сеть чето совсем не утилизируется
я бы попробовал запускать КХ клиент на сервере постгре.

Konstantin
18.05.2018
05:12:50
Kirill
18.05.2018
05:23:25
Коллеги, кто что может сказать про метрики который КХ в графит отсылвает, на что обратить внимание первым делом? Может кто то уже разбирался с этой темой. Как извесно доки нет..
Всегда количество кусков нужно смотреть, если оно сильно растет - у вас какие-то проблемы. Мы смотрим на куски/мержи всё остальное не так интересно

Google
Жека
18.05.2018
06:50:09
Я могу как-то сделать двойную агрегацию без подзапроса? Мне нужно сначала просуммировать и сразу каунт посчитать

Жека
18.05.2018
06:53:43
Мне нужно вот так count(sum(f1))

такое возможно,без подзапроса?

Ivan
18.05.2018
06:57:44
а что нужно то, количество различных сумм? или количество группировок? А то ваш вопрос выглядит примерно так: "можно ли получить 2 поля в одном запросе, а то не хочется 2 запроса выполнять"

Kirill
18.05.2018
07:00:09
Мне нужно вот так count(sum(f1))
Нет, агрегирующие функции не могут быть вложенными

Maxim
18.05.2018
07:03:11
Какие питоновские библиотеки лучше использовать для работы с кликхаузом?

Egor
18.05.2018
07:03:56
Какие питоновские библиотеки лучше использовать для работы с кликхаузом?
Я пытался юзать свякие из списка, которые есть в доках, но все таки написал свое на requests

Ivan
18.05.2018
07:09:24
Я пытался юзать свякие из списка, которые есть в доках, но все таки написал свое на requests
Аналогично. Знаю еще пример от ребят из Рамблера, которые переводят на кх свой топ100. Они тоже написали своё на aiohttp и вроде не жалуются

Kirill
18.05.2018
07:29:01
ага, слышал на последнем митапе, потому и вспомнил про метрики
Вообще, надо бы описать что КХ шлет, я, если сомневаюсь, то в коде ищу что он в метрику сохраняет, но это не очень удобно )

Рулон
18.05.2018
08:06:44
Привет! 127.0.0.1. ZooKeeperImpl::Exception. ZooKeeperImpl::Exception: No node, path: /clickhouse.

проблема появилась после перезагрузки зукипера

Wolf
18.05.2018
08:07:59
А зачем вы его перезагружали , ощущение что вы просто очистили все данные в нем

Собственно говоря это и должно было привести к такой ошибке

Рулон
18.05.2018
08:10:13
Собственно говоря это и должно было привести к такой ошибке
Как всегда случайно ) А есть решение проблемы?

Wolf
18.05.2018
08:11:21
Вы случайно удалили все данные из зукипер?

Рулон
18.05.2018
08:12:07
мы ничего не удаляли, был ребут сервера

Mike
18.05.2018
08:12:33
зукипер одной нодой представлен?

Google
Mike
18.05.2018
08:13:24
да
сами в ногу себе стрельнули :( боюсь тут не восстановить ничего

Рулон
18.05.2018
08:13:58
Using config: /home/omaharoot/zookeeper-3.4.12/bin/../conf/zoo.cfg Mode: standalone

Mike
18.05.2018
08:14:10
нужно минимум 3, желательно нечетное количество нод

Kirill
18.05.2018
08:14:39
Как всегда случайно ) А есть решение проблемы?
Да, нужно заново все пересоздать.

Рулон
18.05.2018
08:14:48
Спасибо

Таблицы в КХ тоже пересоздать?

Kirill
18.05.2018
08:16:29
Данные потом ATTACH'ем закинуть можно

Рулон
18.05.2018
08:17:21
Да, нужно заново.
и как кластер зукиперов поможет избежать повторения проблемы?

Mike
18.05.2018
08:17:30
в конфе зукипера dataLogDir - вот там что-то есть на дисках?

у нас 5 северов в зукипере, перезагружаем по очереди, проблем не было с потерей данных

Рулон
18.05.2018
08:18:25
Can't drop readonly replicated table (need to drop data in ZooKeeper as well). version-2 zookeeper_server.pid

Sergei
18.05.2018
08:43:20
Maxim
18.05.2018
08:45:12
Спасибо, будем тогда тоже сами на aiohttp писать

Страница 531 из 723