@clickhouse_ru

Страница 104 из 723
Maksim
01.04.2017
23:24:28
Подскажите пожалуйста пытаюсь отправить tsv файл но пишет ошибку Cannot parse input: expected \t

между данными ставит таб и clickhouse ругается на него

Олег
01.04.2017
23:50:06
Казалось бы, «expected \t» означает что, наоборот, clickhouse хочет увидеть таб, но не тут-то было. Я бы проверил типы полей — верно ли, что указанные в INSERT'е (или в таблице) в точности совпадают с теми, которые передаютися в tsv.

Google
Roman
02.04.2017
07:00:41
добрый)

Igor
02.04.2017
07:03:10
можно, тип указывается после названия столбца

Vladimir
02.04.2017
07:03:39
? не проснулся.

Туплю

Andrey
02.04.2017
10:54:22
Ребят, такой вопрос. ClickHouse конечно бешено быстрый, но все же бывают отчеты которые сами по себе редкие, но тяжелые. А показываются на вебе который должен быть быстрым. Логично приходит в голову какой то кеш. Кто что использует и использует ли?

Ivan
02.04.2017
10:57:20
мы написали опрос через веб интерфейс, запроксировали его nginx, и кладем в кэш на нужное время

Andrey
02.04.2017
10:58:14
О! Кстати о нем даже не думал. А в каком виде кладете в кеш? Что является ключем?

Ivan
02.04.2017
10:59:01
всмысле в каком виде? веб респонс (джейсон) складывается в стандартный кэш нжинкса

Andrey
02.04.2017
10:59:01
Кеш стоит прямо в разрыве между clickhouse и клиентом?

Ivan
02.04.2017
10:59:37
просто запросы приводятся к унифицированному виду, чтобы мисс был реже

Andrey
02.04.2017
10:59:49
А разделяете как-то на то что нужно кешировать, а что нет?

Ivan
02.04.2017
11:00:30
нет, но без проблем делается установкой какого-то дополнительного флага

Aleksey
02.04.2017
14:00:48
Привет! В документации про парсинг CSV написано "Поддерживаются как двойные, так и одинарные кавычки". А нет ли, случайно, опции, отключающей поддержку одинарных кавычек? Т.е. чтобы одинарные кавычки не воспринимались как служебные символы. Или единственный способ поместить в CSV строку, начинающуюся с одинарной кавычки, так, чтоб ClickHouse её понял, - обернуть всю строку в двойные кавычки?

Google
Виктор
02.04.2017
15:45:36
Экранирование же

"\""

Aleksey
02.04.2017
16:08:01
Слеш я пробовал, но он проходил в ClickHouse as is. А вот экранировать одинарную кавычку точно так же, как по стандарту надо экранировать двойную кавычку - повторением, додумался только сейчас, и это сработало. P.S. Возможно, стоит в явном виде написать в документации, что по отношению к одинарным кавычкам поведение CH отличается от RFC, т.к. фраза "Поддерживаются как двойные, так и одинарные кавычки" выглядит безобидно и позитивно) а на самом деле такая поддержка может для кого-то оказаться неожиданной. Т.е. по RFC строчка 1,2,3,'stringStartingWithSingleQuote,5,6 - валидна, а ClickHouse-у она не нравится, т.к. он, видя одинарную кавычку в начале строки, считает её enclosing-символом

Alexey
02.04.2017
16:21:12
По хорошему, надо добавить настройки кастомизации CSV. Там правда довольно много их получается.

f1yegor
02.04.2017
18:11:59
мы заопенсорсили https://github.com/crobox/clickhouse-scala-client

Pavel
02.04.2017
18:25:08
зачот :)

плюсанул!

Igor
03.04.2017
07:45:09
SELECT * FROM system.parts WHERE active AND table = '...' там столбец есть с кол-вом байт его можно еще через formatReadableSize(x) прогнать

Maksim
03.04.2017
07:50:59
там есть поле bytes

его прогнать ?

а все я ошибся с названием в запросе

капец 1 млн 7 мб )

evervoid
03.04.2017
07:59:51
Кликхаус достаточно сильно жмет данные, у нас 200 гигов почти полностью текстовых данных превращаются в 3, и чем больше данных, тем сильнее жмет)

Dima
03.04.2017
08:02:33
привет всем! в лог кликхауса сыпется : <Information> zen_stats.history_events_v3_2017_02_01 (StorageReplicatedMergeTree): DB::Exception: No active replica has attached part 20170201_20170201_125_125_0 or covering part yet но такой части нет в обоих репликах в каталогах: /history_events_v3_2017_02_01$ ls -1 20170131_20170131_197_199_2 20170201_20170201_126_16677_8 20170201_20170201_-21_124_6 detached и в зукипере тоже нет. Что это?

Maksim
03.04.2017
08:11:13
[ClickHouseDB\DatabaseException] Cannot parse input: expected \t before: 12','2016-10-12 16:00:00',5,3,7,5

['2016-10-12','2016-10-12 16:00:00',5,3,7,50,0,0,0,500000,0,0,'','','',0,0,0,0,0,0,0,0,0,0,0,0,3,0,0,118,'0',1,4,1,0,0,'','',0,0,'']\n['2016-10-12','2016-10-12 16:00:00',5,3,7,50,0,0,0,500000,0,0,'','','',0,0,0,0,0,0,0,0,0,0,0,0,3,0,0,118,'0',1,4,1,0,0,'','',0,0,''] ['2016-10-12','2016-10-12 16:00:00',7,3,8,204,16,4,0,2040000,1691,351,'','','',95116479,0,87869,0,205,10,1,1,0,0,0,0,3,0,0,181,'0',1,4,1,0,0,'','',0,0,''] ['2016-10-12','2016-10-12 16:00:00',11,3,6,106,11,1,0,1060000,1176,205,'','','',99999999,0,204999,0,205,205,1,1,0,0,0,0,3,0,0,181,'0',1,4,1,0,0,'','',0,0,''] ['2016-10-12','2016-10-12 16:00:00',5,3,7,22,2,0,0,220000,3113,0,'','','',0,0,0,0,0,0,0,0,0,0,0,0,3,0,0,181,'0',1,4,1,0,0,'','',0,0,''] ['2016-10-12','2016-10-12 16:00:00',9,3,5,11,3,0,0,110000,5606,0,'','','',0,0,0,0,0,0,0,0,0,0,0,0,3,0,0,181,'0',1,4,1,0,0,'','',0,0,''] ['2016-10-12','2016-10-12 16:00:00',14,3,9,5,4,1,0,50000,867,199,'','','',13827234,0,199991,0,199,199,1,1,0,0,0,0,3,0,0,2,'0',1,4,1,0,0,'','',0,0,''] ['2016-10-12','2016-10-12 16:00:00',7,3,8,18,18,0,0,180000,1493,0,'','','',0,0,0,0,0,0,0,0,0,0,0,0,3,0,0,2,'0',1,4,1,0,0,'','',0,0,''] ['2016-10-12','2016-10-12 16:00:00',11,3,6,18,18,0,0,180000,1745,0,'','','',0,0,0,0,0,0,0,0,0,0,0,0,3,0,0,2,'0',1,4,1,0,0,'','',0,0,''] ['2016-10-12','2016-10-12 16:00:00',13,3,10,2,2,0,0,20000,399,0,'','','',0,0,0,0,0,0,0,0,0,0,0,0,3,0,0,2,'0',1,4,1,0,0,'','',0,0,''] ['2016-10-12','2016-10-12 16:00:00',9,3,5,2,2,0,0,20000,1954,0,'','','',0,0,0,0,0,0,0,0,0,0,0,0,3,0,0,2,'0',1,4,1,0,0,'','',0,0,'']\n

Google
Maksim
03.04.2017
08:24:02
формат файла такой. может кто сталкивался ?

Igor
03.04.2017
08:24:39
формат файла похож на массив из строк и чисел

Maksim
03.04.2017
08:25:42
формат файла похож на массив из строк и чисел
а какой формат верный? я просто использую драйвер php от сми2 . получается их конвертор массива в tsv не верный?

Igor
03.04.2017
08:25:47
если expected \t, то, наверное, указываете FORMAT TabSeparated?

Maksim
03.04.2017
08:28:33
по коду так и есть

return $this->insertBatchFiles($table_name,$file_names,$columns_array,'TabSeparated');

$sql = 'INSERT INTO ' . $table_name . ' ( ' . implode(',', $columns_array) . ' ) FORMAT '.$format;

Stepan
03.04.2017
10:33:07
Возможна ли поддержка словарей без аттрибутов? Т.е. чтоб содержался только ключ

Dima
03.04.2017
10:33:53
на втором сервере эта ошибка в лог не попадает. Перезапуск кликхауса не помог :)

привет всем! в лог кликхауса сыпется : <Information> zen_stats.history_events_v3_2017_02_01 (StorageReplicatedMergeTree): DB::Exception: No active replica has attached part 20170201_20170201_125_125_0 or covering part yet но такой части нет в обоих репликах в каталогах: /history_events_v3_2017_02_01$ ls -1 20170131_20170131_197_199_2 20170201_20170201_126_16677_8 20170201_20170201_-21_124_6 detached и в зукипере тоже нет. Что это?

версия 1.1.54190

Maksim
03.04.2017
11:47:44
формат файла похож на массив из строк и чисел
500 тыс записей кинул в tsv (написал свой преобразователь из array в csv) и импорт пошел. но 500 тыс за 2.2 сек.. это норм?

Imported 3384 records (0.273 seconds)

через tsv по http по сети

Igor
03.04.2017
11:55:34
500 тыс записей кинул в tsv (написал свой преобразователь из array в csv) и импорт пошел. но 500 тыс за 2.2 сек.. это норм?
норм это или нет - не могу сказать а про форматы файлов и прочее вроде подробно в статьях на хабре/документации описано https://github.com/smi2/phpClickHouse/blob/master/doc/

Maksim
03.04.2017
12:00:49
### Import is started ### Imported 3384 records (0.275 seconds) Imported 152096 records (11.539 seconds) Killed

без компрессии все еще хуже. но что такое killed вообще не пойму

Roman
03.04.2017
12:02:00
/stat@combot

Combot
03.04.2017
12:02:00
combot.org/chat/-1001080295593

Maksim
03.04.2017
12:15:08
/stat@combot

Google
Combot
03.04.2017
12:15:08
combot.org/chat/-1001080295593

Aleksandr
03.04.2017
12:47:41
Подскажите пожалуйста, есть ли какая-то возможность перегонять данные из одной таблицы в другую, кроме INSERT INTO tbl1 SELECT * FROM tbl2 WHERE ...

_очень_ медленно и иногда падает по памяти

Igor
03.04.2017
12:50:02
а зачем перегонять?

Aleksandr
03.04.2017
12:50:39
Колонку сэмплирования поменяли

И первичный ключ

Igor
03.04.2017
12:53:35
насчет падания по памяти - можно меньшими кусками выгружать. хоть посуточно там, типа WHERE date = '2017-01-01'

Aleksandr
03.04.2017
12:55:58
Посуточно тоже падал, мы блок_сайз потюнили - оно работает, но долго :) Думал есть способ перегнать побыстрее.

Dmitry
03.04.2017
13:00:06
Быстрее нету

Alexey
03.04.2017
13:05:26
/stat@combot

Combot
03.04.2017
13:05:26
combot.org/chat/-1001080295593

Maksim
03.04.2017
13:07:53
кто нибудь может встречал такую проблему - Killed при вставке бачей click house пишет

Vladimir
03.04.2017
13:08:48
Maksim
03.04.2017
13:12:20
память кончилась, OOM Killer пришел и устроил резню
память? 4 гига памяти не хватило чтобы вставить 1 млн записей в виде 2 бачей по 500 000 в tsv?

Vladimir
03.04.2017
13:18:03
@maksim_melnichuk ну проверить просто - смотришь что в dmesg - если там Out of memory - то это оно

а о причинах я уже не знаю, я просто пользователь )

Igor
03.04.2017
13:18:46
или error_reporting(E_ALL) включить, или как там в пхп логгинг на максимум выкрутить

Vladimir
03.04.2017
13:20:31
в консольке физического сервреа или VPS

команда - пишешь, оно даст кусок логов ядра

Google
Alexey
03.04.2017
13:25:48


Страница 104 из 723