@clickhouse_ru

Страница 682 из 723
Michal
01.10.2018
14:54:45
Там сейчас есть подключ finished, мог бы быть какой-нибудь ignored.

Wolf
01.10.2018
15:01:11
да все работает отлично

блин так круто , я думал какая то очень хитрая проблема в этом есть , ан нет .

Google
Alex
01.10.2018
15:03:03
ну а у меня то нормальные хостнеймы, а не IP

все хостнеймы резолвятся нормально

Wolf
01.10.2018
15:04:24
так рассказываю проблему, заходишь на сервер где не выполняется и смотришь файл /etc/hosts

там прописано типо 127.0.0.1 имяхостатут

и так быть не должно

разобрался почему так, у меня разные провайдеры и они хостс по разному конфигурят

Alex
01.10.2018
15:10:51
Я удалалил из /etc/hosts строчку 127.0.1.1 имя_хоста А после этого нужно кликхаус перезагружать?

Wolf
01.10.2018
15:11:06
да

хотя по идее нет , но я перезагрузил

Alex
01.10.2018
15:13:00
ну в system.clusters у меня по прежнему 127.0.1.1. Щас перезагружу.

Ура! Всё работает! Спасибо!

проклятая убунта, зачем такие подставы делать

Wolf
01.10.2018
15:36:58
помолимся на Михаила и воздадим ему почести

Google
Wolf
01.10.2018
15:43:14
Ура! Всё работает! Спасибо!
у меня вылез сайд эффект сломалась репилка из за изменени я хостов в целом понятно из за чего, завтра проанализирую и решу что делать

Alex
01.10.2018
15:44:57
хм.. А напомните на какую метрику нужно смотреть что-бы понять сломалась она или нет

Wolf
01.10.2018
15:49:11
Ну я вижу в графане и своей админке

Ну и в еррор логе срач знатный июнь

Идёт

Alexey
01.10.2018
15:49:58
хм.. А напомните на какую метрику нужно смотреть что-бы понять сломалась она или нет
Например, так можно проверить, что всё хорошо: SELECT database, table, is_leader, is_readonly, is_session_expired, future_parts, parts_to_check, columns_version, queue_size, inserts_in_queue, merges_in_queue, log_max_index, log_pointer, total_replicas, active_replicas FROM system.replicas WHERE is_readonly OR is_session_expired OR future_parts > 20 OR parts_to_check > 10 OR queue_size > 20 OR inserts_in_queue > 10 OR log_max_index - log_pointer > 10 OR total_replicas < 2 OR active_replicas < total_replicas Если этот запрос ничего не возвращает - значит всё хорошо.

Alex
01.10.2018
15:50:26
ок спс

Slava
01.10.2018
15:56:10
Всем, привет. Интегрили ли вы с кликхаус с графаной? через графит или просто через подключение source в графане?

второй вариант почему-то не воспринимает временные ряды на графиках

Slava
01.10.2018
15:57:58
с графаной работает
кроме подключения сорса больше ниче не заморачивались? у меня все подключилось, но график для graph не хочет строить, как только не изголялся

Slava
01.10.2018
15:58:28
данные видит, но графики с датой не строит, в респонсе вижу все данные получены корректно

Vitaliy
01.10.2018
15:59:24
Как я понял, с произвольный партиционированием grafana не заточена, она требует data колонку

Slava
01.10.2018
16:00:25
Как я понял, с произвольный партиционированием grafana не заточена, она требует data колонку
пытался с датой как раз таки, и он показывает только первую дату

как-будто остальные ряды не видит

Vitaliy
01.10.2018
16:01:28
В дате точно корректные значение. Сама по себе data будет выводиться. Дефолтный запрос графаны к КХ отображается?

Google
Vitaliy
01.10.2018
16:01:58
Где счётчик инзёртов

Странная ситуёвина. query графаны в струдию

Slava
01.10.2018
16:08:22
момент

SELECT toDate(uploaded) as t, sum(size) AS Reqs FROM meta.upload_log GROUP BY toDate(uploaded) ORDER BY t desc

тут явно в дату кастуем, поэтому теоретически должно работать

Evgeny
01.10.2018
16:14:45
во вьюхе mutations есть записи. Во всех записях parts_to_do=0 is_done=1. Что-то еще не доделано?

выполнял пачку апдейтов. Большая часть "ушла" из mutations, а часть осталась

в merges ничего нет

Slava
01.10.2018
16:28:25
я так понимаю, что графики у всех сразу рисовались?



Slava
01.10.2018
16:29:03
на выходне такая ситуация, данные приехали, но по дате не раскладывается.

не понимаю в чем дело может быть

респонс тоже говорит, что все корректно



Petr
01.10.2018
16:46:05
Привет, как рассчитывать железа о бод базу? Есть формула?

Tima
01.10.2018
16:47:58
Естт только такая: заливаете 1/100 данных, смотрите сколько тянет, потом просто умножаете на 100

Wolf
01.10.2018
16:50:42
Привет, как рассчитывать железа о бод базу? Есть формула?
железо под базу это только чисто диски расчитать

Google
Wolf
01.10.2018
16:51:05
запись даже на дешманские диски идет ок пачками , ну а какой сложности у вас запросы тут только бог может угадать

респонс тоже говорит, что все корректно
даже не подскажу так как все завелось их коробки и программисты сами понастроили себе нужных графиков

Алексей
01.10.2018
18:57:56
Привет всем! Только обнаружил что ReplicatedMergeTree таблица НЕ ВСЕГДА ТРИГЕРИТ записи в materialized приделанную локально. Случайно примерно половина записей не записываются в MV хотя она вроде как локально приделана к таблице. Это фича такая или бага? Это полностью выбило у меня понимание как вообще работает MV

Александр
01.10.2018
19:10:44
Доброй ночи всем! У нас наблюдается проблема в логах и не на одной машине. 2018.10.01 22:09:12.787787 [ 7 ] <Error> void DB::BackgroundProcessingPool::threadFunction(): Code: 84, e.displayText() = DB::Exception: Directory /var/lib/clickhouse/data/cursometr/tests_question_answers_choices_local/tmp_merge_6-20181001_1293_1536_9/ already exists, e.what() = DB::Exception, Stack trace: 0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x16) [0x9491e46] 1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x22) [0x3019952] 2. /usr/bin/clickhouse-server(DB::MergeTreeDataMergerMutator::mergePartsToTemporaryPart(DB::MergeTreeDataMergerMutator::FuturePart const&, DB::MergeListEntry&, long, DB::DiskSpaceMonitor::Reservation*, bool)+0x53b0) [0x734fcc0] 3. /usr/bin/clickhouse-server(DB::StorageMergeTree::merge(bool, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, bool, bool, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> >*)+0x45a) [0x7289dca] 4. /usr/bin/clickhouse-server(DB::StorageMergeTree::backgroundTask()+0x135) [0x728c985] 5. /usr/bin/clickhouse-server(DB::BackgroundProcessingPool::threadFunction()+0x43e) [0x72fd4be] 6. /usr/bin/clickhouse-server() [0x9e659ef] 7. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76ba) [0x7f51f392e6ba] 8. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7f51f2f4f41d] 2018.10.01 22:09:12.823321 [ 3487792 ] <Error> ServerErrorHandler: Poco::Exception. Code: 1000, e.code() = 24, e.displayText() = I/O error: Too many open files, e.what() = I/O error Это вот кусок лога. И просто нонстопом валит и Too many open files и то, что какой-то путь уже существует в ЗК. Я так понял, что можно путь в ЗК шлепнуть?

Но откуда Too many open files?

Перед этим запускали мутации

Wolf
01.10.2018
19:11:35
ну обычно это у балбесов которые делают вставки по одной , если делать вставки по много то нет проблем

что значит запускали мутации ? тут либо вы как описано в рекомендациях сделали две мутации и все ок , либо сделали сто тысяч миллиардов мутаций и все не ок

Александр
01.10.2018
19:12:46
что значит запускали мутации ? тут либо вы как описано в рекомендациях сделали две мутации и все ок , либо сделали сто тысяч миллиардов мутаций и все не ок
У нас порядка 20 таблиц, запускали мутации по каждой из них, по одной мутации на таблицу. Все ок, но вот с одной какая-то беда случилась.

Wolf
01.10.2018
19:13:40
ну посмотрите систем мутейшенс

ну или если вы наебнули мутацию то тушите сервер удаляйте флаг и чистите данные в зукипере

Александр
01.10.2018
19:14:25
Ок, будем пробовать )

Спасибо!

Wolf
01.10.2018
19:42:12
Вот костыль...
ну как бы разработчики заявили что это пока единственный способ прервать мутацию

естественного способа пока нет но скоро будет

Google
Alexey
01.10.2018
19:54:02
видимо когда CH пишет в реплику, то триггер на MV не срабатывает
Вам надо создать реплицированные MV, и сверху них Distributed

Алексей
01.10.2018
19:55:01
Вам надо создать реплицированные MV, и сверху них Distributed
я сделал локальные MV от шардрв и видимо в этом ошибка?

Alexey
01.10.2018
19:55:03
Ну или дистр не обязательно, если шардов нет

Не, так нвло, просто надо с реплицированным движком

Алексей
01.10.2018
19:57:07
Не, так нвло, просто надо с реплицированным движком
есть пример конфига такого чтобы replicated sharded tables -> MV’s ?

Alexey
01.10.2018
19:58:32
Вот у вас есть MV - сделайте ее Replicated, а на другой реплике точно такую же

Куда бы данные не прилетали, они стригеррятся и по репликации приедут в MV

И так на каждом шарде, и потом Distributed для них

Александр
01.10.2018
20:10:40
Что-то КХ с 18.12.17 оооооооооооочень долго дропает таблицы

Wolf
01.10.2018
20:11:36
Нет такой проблемы

Александр
01.10.2018
20:14:00
А у нас есть :( После одной поломанной мутации у нас КХ пару дней жрал проц как не в себя, в итоге сегодня шлепнулся с Too many open files. Решили, что проще переналить данные, т.к. после чистки некоторых нод в ZK у нас посыпались ошибки с мисматчем хешей в таблицах, решили пересоздать и вот уже 30 минут мучаюсь и дропаю их. КХ просто зависает на дропе таблиц.

Алексей
01.10.2018
20:17:11
Александр
01.10.2018
20:25:00
Мне кажется тут изначально какой то не правильный сценарий отсюда и проблемы
Ну сценарий был такой, то в запросе на мутацию использовался подзапрос, который был без указания БД и шел в БД default в которой таблицы-то такой и не было. Мутация "упала".

Если все части в зк зачем что то удалять в кх ?
У нас все данные лежат во внешнем источнике.

В КХ льем только для агрегации сложных штук всяких

Wolf
01.10.2018
20:25:43
У нас все данные лежат во внешнем источнике.
Зачем тем более что то удалять?

Александр
01.10.2018
20:26:29
Зачем тем более что то удалять?
Нам нужно остановит бесконечные ошибки типа missing part, checksu mismatch и пр. Кроме как шленуть таблицы, я другого способа не знаю. Может быть есть другой? )

Alexey
01.10.2018
20:45:56
для MV надо <internal_replication>false</internal_replication> ?
Надо true, если у вас репликация

Страница 682 из 723