
Александр
06.06.2018
14:58:49
По сути если перед вызовом детач сделать задержку записи на несколько секунд, то данные не должны быть потеряны. Вобщем надо потестить это поведение.

Alexey
06.06.2018
15:04:38

Александр
06.06.2018
15:05:56
Спасибо за оперативный тест!

Google

Alexey
06.06.2018
15:08:17
ничо не отвалилось
CREATE TABLE test.test_detach ( day Date, x DateTime) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/test_detach', '{replica}', day, day, 8192)
на одной реплике: for i in {0..1000}; do echo $i; clickhouse-client -q "insert into test.test_detach values(today(), now())"; sleep 1; done
на второй делаем detach partition 201806, останавливаем инсерты, и смотрим данные

Павел Максимов
06.06.2018
17:38:38
Подскажите, как заставить КХ забыть про словарь. Конфиг удалил, а словарь все равно есть.

?
06.06.2018
17:39:24
system reload dictionaries; все обновит

Павел Максимов
06.06.2018
17:40:25

?
06.06.2018
17:40:42
в клиенте )

Павел Максимов
06.06.2018
17:41:36
cgfcb,j

?
06.06.2018
17:43:29
а команда без ошибок проходит?

Kirill
06.06.2018
17:44:17

?
06.06.2018
17:44:17
SELECT *
FROM system.dictionaries
тут этот словарь есть?
ааа

Павел Максимов
06.06.2018
17:48:18

Kirill
06.06.2018
17:59:59
понял, спасибо
Это хороший use case, надо фиксить, но, это точно не надо (если на взять и сделать, т.к. делать нечего) для Яндекс, поэтому можно меня пинать (а я пинкиами более чем завален), а так можно создать issue

Google

Kirill
06.06.2018
18:00:19
?

Combot
07.06.2018
04:13:45
combot.org/chat/-1001080295593

Stepan
07.06.2018
07:34:29
Всем привет.
Есть такая странная фигня:
есть таблица docs_temp, пытаюсь ее переименовать в docs, в ответи прилетает exception, DB::Exception: Target path already exists: /var/lib/clickhouse//data/default/docs/. Пытаюсь сделать drop: DB::Exception: Table default.docs doesn't exist..
Пытаюсь сделать detach docs_temp: DB::Exception: Table default.docs doesn't exist..
сохранность данных в этих двух мне сейчас не принципиальна (таблицы проще перелить), вопрос как правильно удалить такие "зависшие" таблицы чтобы не покоробить метаданные в самом clickhouse и не повредить остальные таблицы

Kirill
07.06.2018
07:56:22

Stepan
07.06.2018
07:57:28
безумный шляпник делал attach\detach таблиц судя по всему.

Kirill
07.06.2018
08:01:41

Александр
07.06.2018
08:07:55
@kshvakov Кирилл, недавно проскакивала инфа о том, что в тестовой ветке есть UPDATE/DELETE. Я по коммитам ничего похожего не могу найти ( Можете подсказать какую ветку собрать, что бы потестить?

Kirill
07.06.2018
08:09:46
По комитам нужно смотреть на mutate

Александр
07.06.2018
08:10:55
Спасибо!

Kirill
07.06.2018
08:16:32

Александр
07.06.2018
08:17:19

Kirill
07.06.2018
08:22:11
Ооооо! Круто! Еще бы видео
Там были какие-то проблемы во время записи, но какая-то часть должна быть, надеюсь отмонтируют, еще есть примеры как делать "странное" от меня https://github.com/kshvakov/ClickHouse-CPP-Meetup ) Я тут сильно тупанул и описал как рабоатать с SQL на C++ митапе )

Daniel
07.06.2018
08:22:46
Привет всем) А можно ли как-то использовать несколько точек монтирование для хранения данных одним Clickhouse сервисом на одном сервере?

?
07.06.2018
08:22:48
надо больше C++ митапов )

Wolf
07.06.2018
08:24:28

Александр
07.06.2018
08:24:35

Kirill
07.06.2018
08:25:53

Google

Kirill
07.06.2018
08:27:07

Daniel
07.06.2018
08:31:18

M
07.06.2018
08:32:12

Kirill
07.06.2018
08:35:14

M
07.06.2018
08:40:45
Там же хардлинуи при freeze
У нас старые данные уходят на другой сервер. И при необходимости монтируется NFS диск, в котором данные уже линкуем к основной базе

Атата
07.06.2018
08:41:41

Stepan
07.06.2018
08:42:03

Kirill
07.06.2018
08:44:48

M
07.06.2018
08:48:38
При этом клику нужно запретить мерджить куски на это время)

Атата
07.06.2018
08:52:16
Спасибо

Daniel
07.06.2018
09:03:33
А размер записей на диск в CH какой-то статический, может его можно настраивать? Или всегда динамический?

Andrey
07.06.2018
09:05:25
Ребят, есть вопрос по отдельной агрегационной ноде без данных, она ест место на диске? Или только cpu/память?

Kirill
07.06.2018
09:05:39

Daniel
07.06.2018
09:06:29

Kirill
07.06.2018
09:07:18

Daniel
07.06.2018
09:09:29
RX пишет данные как есть, (пока)
в таблице по записи в количестве байт вижу только:
bytes_written_uncompressed UInt64 - количество записанных байт, несжатых
но пишутся же сжатые данные, так что вряд ли это значение им подойдёт)

Google

Kirill
07.06.2018
09:13:12

Andrew
07.06.2018
10:53:14
Всем приувет. Хотим разместить CH в новом датацентре и возник вопрос, он поддерживает шифрование данных на дисках?

Alex
07.06.2018
10:56:59
шифрованная FS?

Vladimir
07.06.2018
11:01:02
Всем привет, а где можно найти файлики для словарей, описанных вот тут? https://clickhouse.yandex/docs/ru/functions/ym_dict_functions/#ym_dict_functions

Andrew
07.06.2018
11:24:05
@Krashuevina, шифровать фс - это запасной план

Daniel
07.06.2018
11:27:35
А что насчёт использования слоя кэширования в mdadm для базы под Clickhouse ? Нужен или нет?

Anton
07.06.2018
11:28:16

Wolf
07.06.2018
11:28:20
Не очень понятно зачем, файловый кеш и так нормально работает

Jen
07.06.2018
11:30:22
всем снова привет
подскажите, можно ли как то посмотреть состояние таблицы с движком буфер?
сколько там данных, например

Daniel
07.06.2018
11:30:56

Anton
07.06.2018
11:31:55
А почему?
у кх такое файловое устройство, что кэш фс и так прекрасно справляется
добавив уровень абстракции - понизите надежность

Daniel
07.06.2018
11:44:40
понятно. ещё есть вопрос касательно программного рейда из HDD. Правильно ли я понимаю, что в таком случае существует вероятность потери данных, ещё не за fsync-аных на диски, но записанных в кэш, в момент между возвратом клиенту "успеха" в ответ на INSERT и фактической записи на реплики? кто-то сталкивался, какие есть варианты mitigation, кроме повышения частоты фсинков на диск в операционке?

Alex
07.06.2018
12:00:03
insert quorum
тогда блок будет минимум в двух местах

nikita
07.06.2018
13:09:25
в главе про ReplicatedMergeTree написано про идемпотентность INSERT. я правильно понял, что для обычного MergeTree это тоже справедливо?

Evgeny
07.06.2018
13:18:55

Jen
07.06.2018
13:20:10

Evgeny
07.06.2018
13:20:50
чем select не стандартное средство?

Google

Jen
07.06.2018
13:21:34
тем, что у буфера есть счетчики байт и строк, можно было бы туда и напрямую смотреть

Evgeny
07.06.2018
13:21:40
хотя конечно, может какие то еще есть "возможности" в документации
также, судя по документации, релевантная таблица - system.parts


Alexey
07.06.2018
13:41:01
Добрый день. У меня ошибка при Insert. Подозрение, что совсем простая ошибка.
Есть такая операция
INSERT INTO LIFECYCLE_LOG values ( '13.05.18', '13.05.18 02:59:59', 'BLOGGERUSER', 'READ_FRIENDS', '27ee9e68-7695-4e6f-a54c-46bce225bb00', '27ee9e68-7695-4e6f-a54c-46bce225bb00', '0');
На сервере падает ошибка:
2018.06.07 13:37:56.406410 [ 5 ] <Error> HTTPHandler: Code: 32, e.displayText() = DB::Exception: Attempt to read after eof, e.what() = DB::Exception, Stack trace:
0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x15) [0x84eb125]
1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x21) [0x2ccbf01]
2. /usr/bin/clickhouse-server(DB::throwReadAfterEOF()+0x4c) [0x2ccbf6c]
3. /usr/bin/clickhouse-server(DB::readDateTextFallback(LocalDate&, DB::ReadBuffer&)+0x395) [0x8501ba5]
4. /usr/bin/clickhouse-server(DB::readDateText(StrongTypedef<unsigned short, DayNum_tTag>&, DB::ReadBuffer&)+0x1a8) [0x5f8f388]
5. /usr/bin/clickhouse-server() [0x7d6ac3a]
6. /usr/bin/clickhouse-server(DB::convertFieldToType(DB::Field const&, DB::IDataType const&, DB::IDataType const*)+0x61) [0x7d6b3c1]
Как правильно запрос составить? Первое поле типа Date, второе - DateTime


Jen
07.06.2018
13:43:53
2018-05-13 вроде должно быть

Aleksey
07.06.2018
13:56:50
формат даты и датывремени не верный, должно быть '2018-05-13', '2018-05-13 02:59:59'

Alexey
07.06.2018
13:58:32
Да, я уже подумал об этом.
Но всё равно не помогает.
Сейчас вот такой вставляю
INSERT INTO LIFECYCLE_LOG values ( '13-05-18', '13-05-18 02:59:59', 'BLOGGERUSER', 'READ_FRIENDS', '27ee9e68-7695-4e6f-a54c-46bce225bb00', '27ee9e68-7695-4e6f-a54c-46bce225bb00', '0');

Stanislav
07.06.2018
13:58:48
По-моему, снова неверный
должен быть YYYY-MM-DD, а у вас - DD-MM-YY

Alexey
07.06.2018
13:59:45
Всё, спасибо. Все глаза проглядел.

Tima
07.06.2018
13:59:51

molo4ko
07.06.2018
14:03:58
Насколько опасно такое в логах?
2018.06.06 15:38:02.863325 [ 108495 ] <Error> carrierAppFirstStarted.Distributed.DirectoryMonitor: Code: 225, e.displayText() = DB::Exception: Received from 10.253.248.105:9000. DB::Exception: ZooKeeper session has been expired..
со временем появления этих ошибок в логах совпадает скачок метрики clickhouse_leader_replica

Aleksandr
07.06.2018
14:25:02
приветствую, подскажите пожалуйста, как делать поиск в массиве Array(Int64) ? Или нужно делать только arrayJoin и тогда искать?

Egor
07.06.2018
14:26:32