
Wolf
01.10.2018
14:54:41

Michal
01.10.2018
14:54:45
Там сейчас есть подключ finished, мог бы быть какой-нибудь ignored.

Wolf
01.10.2018
15:01:11
да все работает отлично
блин так круто , я думал какая то очень хитрая проблема в этом есть , ан нет .

Google

Alex
01.10.2018
15:03:03
ну а у меня то нормальные хостнеймы, а не IP
все хостнеймы резолвятся нормально

Wolf
01.10.2018
15:04:24
так рассказываю проблему, заходишь на сервер где не выполняется и смотришь файл /etc/hosts
там прописано типо 127.0.0.1 имяхостатут
и так быть не должно
разобрался почему так, у меня разные провайдеры и они хостс по разному конфигурят

Alex
01.10.2018
15:10:51
Я удалалил из /etc/hosts строчку 127.0.1.1 имя_хоста
А после этого нужно кликхаус перезагружать?

Wolf
01.10.2018
15:11:06
да
хотя по идее нет , но я перезагрузил

Alex
01.10.2018
15:13:00
ну в system.clusters у меня по прежнему 127.0.1.1. Щас перезагружу.
Ура! Всё работает! Спасибо!
проклятая убунта, зачем такие подставы делать

Wolf
01.10.2018
15:36:58
помолимся на Михаила и воздадим ему почести

Google

Wolf
01.10.2018
15:43:14
Ура! Всё работает! Спасибо!
у меня вылез сайд эффект сломалась репилка из за изменени я хостов в целом понятно из за чего, завтра проанализирую и решу что делать

Alex
01.10.2018
15:44:57
хм.. А напомните на какую метрику нужно смотреть что-бы понять сломалась она или нет

Wolf
01.10.2018
15:49:11
Ну я вижу в графане и своей админке
Ну и в еррор логе срач знатный июнь
Идёт

Alexey
01.10.2018
15:49:58
хм.. А напомните на какую метрику нужно смотреть что-бы понять сломалась она или нет
Например, так можно проверить, что всё хорошо:
SELECT
database,
table,
is_leader,
is_readonly,
is_session_expired,
future_parts,
parts_to_check,
columns_version,
queue_size,
inserts_in_queue,
merges_in_queue,
log_max_index,
log_pointer,
total_replicas,
active_replicas
FROM system.replicas
WHERE
is_readonly
OR is_session_expired
OR future_parts > 20
OR parts_to_check > 10
OR queue_size > 20
OR inserts_in_queue > 10
OR log_max_index - log_pointer > 10
OR total_replicas < 2
OR active_replicas < total_replicas
Если этот запрос ничего не возвращает - значит всё хорошо.

Alex
01.10.2018
15:50:26
ок спс

Slava
01.10.2018
15:56:10
Всем, привет. Интегрили ли вы с кликхаус с графаной? через графит или просто через подключение source в графане?
второй вариант почему-то не воспринимает временные ряды на графиках

Vitaliy
01.10.2018
15:57:10

Pavel
01.10.2018
15:57:54

Slava
01.10.2018
15:57:58
с графаной работает
кроме подключения сорса больше ниче не заморачивались? у меня все подключилось, но график для graph не хочет строить, как только не изголялся

Vitaliy
01.10.2018
15:58:17

Slava
01.10.2018
15:58:28
данные видит, но графики с датой не строит, в респонсе вижу все данные получены корректно

Vitaliy
01.10.2018
15:59:24
Как я понял, с произвольный партиционированием grafana не заточена, она требует data колонку

Slava
01.10.2018
16:00:25
как-будто остальные ряды не видит

Vitaliy
01.10.2018
16:01:28
В дате точно корректные значение. Сама по себе data будет выводиться.
Дефолтный запрос графаны к КХ отображается?

Google

Vitaliy
01.10.2018
16:01:58
Где счётчик инзёртов
Странная ситуёвина. query графаны в струдию

Slava
01.10.2018
16:08:22
момент
SELECT
toDate(uploaded) as t,
sum(size) AS Reqs
FROM meta.upload_log
GROUP BY toDate(uploaded)
ORDER BY t desc
тут явно в дату кастуем, поэтому теоретически должно работать

Evgeny
01.10.2018
16:14:45
во вьюхе mutations есть записи. Во всех записях parts_to_do=0 is_done=1. Что-то еще не доделано?
выполнял пачку апдейтов. Большая часть "ушла" из mutations, а часть осталась
в merges ничего нет

Wolf
01.10.2018
16:27:02

Slava
01.10.2018
16:28:25
я так понимаю, что графики у всех сразу рисовались?

Wolf
01.10.2018
16:28:39

Slava
01.10.2018
16:29:03
на выходне такая ситуация, данные приехали, но по дате не раскладывается.
не понимаю в чем дело может быть
респонс тоже говорит, что все корректно

Petr
01.10.2018
16:46:05
Привет, как рассчитывать железа о бод базу? Есть формула?

Tima
01.10.2018
16:47:58
Естт только такая: заливаете 1/100 данных, смотрите сколько тянет, потом просто умножаете на 100

Wolf
01.10.2018
16:50:42

Google

Wolf
01.10.2018
16:51:05
запись даже на дешманские диски идет ок пачками , ну а какой сложности у вас запросы тут только бог может угадать

Evgeny
01.10.2018
16:52:31

Алексей
01.10.2018
18:57:56
Привет всем! Только обнаружил что ReplicatedMergeTree таблица НЕ ВСЕГДА ТРИГЕРИТ записи в materialized приделанную локально. Случайно примерно половина записей не записываются в MV хотя она вроде как локально приделана к таблице. Это фича такая или бага? Это полностью выбило у меня понимание как вообще работает MV


Александр
01.10.2018
19:10:44
Доброй ночи всем!
У нас наблюдается проблема в логах и не на одной машине.
2018.10.01 22:09:12.787787 [ 7 ] <Error> void DB::BackgroundProcessingPool::threadFunction(): Code: 84, e.displayText() = DB::Exception: Directory /var/lib/clickhouse/data/cursometr/tests_question_answers_choices_local/tmp_merge_6-20181001_1293_1536_9/ already exists, e.what() = DB::Exception, Stack trace:
0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x16) [0x9491e46]
1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x22) [0x3019952]
2. /usr/bin/clickhouse-server(DB::MergeTreeDataMergerMutator::mergePartsToTemporaryPart(DB::MergeTreeDataMergerMutator::FuturePart const&, DB::MergeListEntry&, long, DB::DiskSpaceMonitor::Reservation*, bool)+0x53b0) [0x734fcc0]
3. /usr/bin/clickhouse-server(DB::StorageMergeTree::merge(bool, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, bool, bool, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> >*)+0x45a) [0x7289dca]
4. /usr/bin/clickhouse-server(DB::StorageMergeTree::backgroundTask()+0x135) [0x728c985]
5. /usr/bin/clickhouse-server(DB::BackgroundProcessingPool::threadFunction()+0x43e) [0x72fd4be]
6. /usr/bin/clickhouse-server() [0x9e659ef]
7. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76ba) [0x7f51f392e6ba]
8. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7f51f2f4f41d]
2018.10.01 22:09:12.823321 [ 3487792 ] <Error> ServerErrorHandler: Poco::Exception. Code: 1000, e.code() = 24, e.displayText() = I/O error: Too many open files, e.what() = I/O error
Это вот кусок лога. И просто нонстопом валит и Too many open files и то, что какой-то путь уже существует в ЗК. Я так понял, что можно путь в ЗК шлепнуть?
Но откуда Too many open files?
Перед этим запускали мутации


Wolf
01.10.2018
19:11:35
ну обычно это у балбесов которые делают вставки по одной , если делать вставки по много то нет проблем
что значит запускали мутации ? тут либо вы как описано в рекомендациях сделали две мутации и все ок , либо сделали сто тысяч миллиардов мутаций и все не ок

Александр
01.10.2018
19:12:46

Wolf
01.10.2018
19:13:40
ну посмотрите систем мутейшенс
ну или если вы наебнули мутацию то тушите сервер удаляйте флаг и чистите данные в зукипере

Александр
01.10.2018
19:14:25
Ок, будем пробовать )
Спасибо!

Alexey
01.10.2018
19:40:57

Wolf
01.10.2018
19:42:12
Вот костыль...
ну как бы разработчики заявили что это пока единственный способ прервать мутацию
естественного способа пока нет но скоро будет

Алексей
01.10.2018
19:46:05

Google

Alexey
01.10.2018
19:54:02

Алексей
01.10.2018
19:55:01

Alexey
01.10.2018
19:55:03
Ну или дистр не обязательно, если шардов нет
Не, так нвло, просто надо с реплицированным движком

Алексей
01.10.2018
19:57:07

Alexey
01.10.2018
19:58:32
Вот у вас есть MV - сделайте ее Replicated, а на другой реплике точно такую же
Куда бы данные не прилетали, они стригеррятся и по репликации приедут в MV
И так на каждом шарде, и потом Distributed для них

Александр
01.10.2018
20:10:40
Что-то КХ с 18.12.17 оооооооооооочень долго дропает таблицы

Wolf
01.10.2018
20:11:36
Нет такой проблемы

Александр
01.10.2018
20:14:00
А у нас есть :( После одной поломанной мутации у нас КХ пару дней жрал проц как не в себя, в итоге сегодня шлепнулся с Too many open files. Решили, что проще переналить данные, т.к. после чистки некоторых нод в ZK у нас посыпались ошибки с мисматчем хешей в таблицах, решили пересоздать и вот уже 30 минут мучаюсь и дропаю их. КХ просто зависает на дропе таблиц.

Алексей
01.10.2018
20:17:11

Wolf
01.10.2018
20:24:02
Если все части в зк зачем что то удалять в кх ?

Александр
01.10.2018
20:25:00
В КХ льем только для агрегации сложных штук всяких

Wolf
01.10.2018
20:25:43

Александр
01.10.2018
20:26:29
Зачем тем более что то удалять?
Нам нужно остановит бесконечные ошибки типа missing part, checksu mismatch и пр. Кроме как шленуть таблицы, я другого способа не знаю. Может быть есть другой? )

Alexey
01.10.2018
20:45:56