@clickhouse_ru

Страница 29 из 723
Andrew
06.12.2016
11:16:28
а там нигде лишнего неэкранированного разделителя нету случайно?

Igor
06.12.2016
11:16:33
а если --stacktrace

Konstantin
06.12.2016
11:20:43
разделителю вроде неоткуда взяться =/

Andrew
06.12.2016
11:22:07
надо смотреть - что в файле в том месте, где была последняя вставленная запись. Для начала

Google
Konstantin
06.12.2016
11:27:53
stacktrace ничего не выдает

Igor
06.12.2016
11:28:41
КХ всегда ругается на некорректные данные

по крайней мере, по http

Konstantin
06.12.2016
11:31:10
работаем через клиент командной строки

Igor
06.12.2016
11:32:44
хотя даже если без --stacktrace.. ❯ clickhouse-client -q "CREATE TABLE test (s String, i Int64) ENGINE = Memory;" ❯ echo -e '"hello",1\n"invalid csv' | clickhouse-client -q 'INSERT INTO test FORMAT CSV' Code: 27. DB::Exception: Cannot parse input: expected , at end of stream.: Could not print diagnostic info because two last rows aren't in buffer (rare case) : (at row 2)

Konstantin
06.12.2016
11:34:29
так вся прелесть в том, что он файл обрабатывает, выбирает из него какоето количество записей, делает их insert

и никаких ошибок

Igor
06.12.2016
11:36:21
мм, а count() по этой таблице возвращает верное кол-во данных? если вообще без фильтров

Konstantin
06.12.2016
11:37:28
вот как раз нет, он выдает ~50к записей, а в csv их 1кк

Vladimir
06.12.2016
11:44:18
нет
есть по max query size

и оно влияет в том числе на то как парсится запрос отправленный по пост и выдает немного странную ошибку

поднял юзеру - заработало

Andrew
06.12.2016
11:54:50
Так это не лимит POST-а, а лимит парсера SQL. Что как-бы разные вещи. POST-ом я гигабайты заливал

Google
Andrew
06.12.2016
11:55:56
и мне таки интересно - что у клиента за запросы, если ему 64К на SQL не хватило

f1yegor
06.12.2016
13:05:45
привет. когда я делаю RENAME таблицы, будет ли он заблокирован SELECT query из этой же таблицы?

после перезагрузки сервера новый RENAME все так же продолжает висеть.

Vladimir
06.12.2016
13:24:29
и по ней казалось словно есть лимит на вставку

Andrew
06.12.2016
13:29:07
очень большой селект, примерно на 1.6МБ
http://filonov.livejournal.com/11140.html типа такого? ?

Vladimir
06.12.2016
13:29:45
http://filonov.livejournal.com/11140.html типа такого? ?
не, нормальный, просто автоматически сгенерированный графаной

SELECT Path, Value, Time, Timestamp where PATH IN ( список из 80 тысяч path'ов)

потому что так * раскрылась

Andrew
06.12.2016
13:36:02
?

С лимитом POST-запросов чаще натыкаешься с клиентской стороны. Потому как не только лишь все могу отослать 10G POST, мало кто может это сделать.

Vladimir
06.12.2016
13:49:18
Хм, интересная штука

мелкие запросы с PREWHERE выполняюстя в разы быстрее

в 2 раза где-то

а тяжелые наоборот, раз в 6 медленее

в чем причина?

Andrew
06.12.2016
13:49:59
На моих запросах разницы вообще не было

Vladimir
06.12.2016
13:50:41
На моих запросах разницы вообще не было
у меня на легких запросах prewhere - 80ms, where - 200ms

на тяжелых prewhere - 15sec, where - 3sec

Google
Andrew
06.12.2016
13:51:05
Мои "легкие" в минутах измеряются :)

Vladimir
06.12.2016
13:51:32
ну у меня это графит

Andrew
06.12.2016
13:53:46
У меня - много миллиардов строк статистики

Vladimir
06.12.2016
14:06:51
У меня - много миллиардов строк статистики
ну у меня пока графит на пол млн метрик и примерно 50 млрд точек

структура поэтому простая

papa
06.12.2016
14:29:43
в чем причина?
зависит от селективности условий и распределения данных по блокам. если про какие-то блоки можно быстро понять, что их читать не надо, то запрос ускоряется, если нет, то данные прочитаюся два раза. почему стало медленней в целых 5 раз - это интересно, но без деталей это вряд ли получится определить.

Иван
06.12.2016
14:50:45
help "ReplicatedMergeTree('/clickhouse/tables/{layer}-{shard}/hits', '{replica}', EventDate, intHash32(UserID), (CounterID, EventDate, intHash32(UserID), EventTime), 8192) Путь к таблице в ZooKeeper должен быть разным для каждой реплицируемой таблицы. В том числе, для таблиц на разных шардах, должны быть разные пути. Что здесь значит "разным для каждой реплицируемой таблицы"?

Shine
06.12.2016
15:29:04
ребят, а удаленно можно загузить csv-ник через курл в кликхаус ?

Igor
06.12.2016
15:30:22
в документации же есть примеры

cat example.csv | curl 'http://localhost:8123/?query=INSERT+INTO+test+FORMAT+CSV' --data-binary @-

Shine
06.12.2016
15:34:23
ага, спасибо!

просмотрел

:(

Igor
06.12.2016
15:34:34
ну не прям такой

echo -ne '10\n11\n12\n' | POST 'http://localhost:8123/?query=INSERT INTO t FORMAT TabSeparated' но под curl несложно переделать

Alex
06.12.2016
17:01:53
Ппр

кто то юзал блого движок Эгея?

Всем любителям фильмов советую отличный чатик @chatanonhownow

Roman
06.12.2016
17:19:22
Вы зашли в канал чисто поспамить?

Alex
06.12.2016
17:19:34
Не

Google
Roman
06.12.2016
17:19:46
А похоже.

Alex
06.12.2016
17:20:00
Что такое клик хаус яндекс?

Roman
06.12.2016
17:20:26
https://clickhouse.yandex/

Виктор
06.12.2016
17:30:50
Убрал этого человека из группы.

Марк ☢
06.12.2016
17:32:41
А есть бот которому скармливаешь чела и если много кто пожаловался то его банят вобще в телеграме ?

Виктор
06.12.2016
17:35:38
Не знаю.

Max
06.12.2016
17:36:33
Igor
06.12.2016
17:36:37
есть, называется техподдержка.+42470 телефон

f1yegor
06.12.2016
17:38:22
Vladimir
06.12.2016
17:40:52
а как кх к графане подключали?
https://github.com/lomik/graphite-clickhouse + carbonapi

f1yegor
06.12.2016
17:42:06
grafana?

не графит

Vladimir
06.12.2016
17:49:45
grafana?
Через слой совместимости с графитом

f1yegor
06.12.2016
17:51:31
ок. я просто графитом не занимался совсем. а, то есть источником графаны является графит, бекендом которого является кх?

f1yegor
06.12.2016
17:52:41
а на прямую графану с кх никто не связывал?

Vladimir
06.12.2016
18:01:22
Нужно плагин писать под графану

f1yegor
06.12.2016
18:02:02
да, я знаю, смотрел уже некоторые примеры, только руки не доходят

да и на работе под это времени нет

Vladimir
06.12.2016
18:20:52
Ну у меня задачи мониторинговые сейчас.

Google
Иван
06.12.2016
19:35:30
Спасибо

А как используется имя реплики? То есть для чего?

Roman
06.12.2016
19:42:49
Для самоидентификации видимо. Чтоб с себя не качать

f1yegor
06.12.2016
19:43:05
я не разработчик, но отвечу. это будет использоваться в узлах zookeeper для поддержания кластера

select * from system.zookeeper;

Valeriy
06.12.2016
19:51:40
Меня мучает вопрос. Спать не могу. Почему репликация не используется для ускорения выполнения запросов? Грубо говоря, при двух репликах разбить все данные на два куска, на одной реплике обработать один, на другой - другой, результаты смерджить. Как это работает при шардировании, но только без шардирования.

Igor
06.12.2016
19:53:11
может, потому что данные до реплики могли еще не дойти, например?

Evgeniy
06.12.2016
19:53:39
ну тут можно понять дошли или не дошли

прогромировать надо просто

и кост модель делать

а какие тут кост модели щас

f1yegor
06.12.2016
19:54:12
т.е. запись в два шарда идет синхронная?

Evgeniy
06.12.2016
19:54:36
нет, ты же можешь спросить запрос про старые уже данные

Valeriy
06.12.2016
19:56:00
может, потому что данные до реплики могли еще не дойти, например?
Мне в любом случае не повезет тогда, если запрос целиком выполнится на отставшей реплике. Но вообще да, это наверное можно проверить, распределяя, на какой реплике что обработается.

Alexey
06.12.2016
19:56:47

Страница 29 из 723