@clickhouse_ru

Страница 273 из 723
Sergei
27.09.2017
21:40:37
пишет while reading from part /home/clickhouse/data//data/default/uri_stat/20170601_20170622_3028_19744_7/

получается, что размер колонки больше выставленного лимита и он не может его в память загрузить

есть какой-то способ уменьшить размер parts?

Рулон
28.09.2017
06:14:42
Доброе! Когда сделаете курсы по кликхаусу? ))

Google
Kirill
28.09.2017
06:18:39
Рулон
28.09.2017
06:24:58
Kirill
28.09.2017
06:27:10
А что смущает ?

Александр
28.09.2017
06:28:54
А что по ценам на курсы и что туда входит? Или лучше им писать? Я просто не уверен, что тут есть представители

Kirill
28.09.2017
06:34:50
Не знаю что по ценам, я так думаю что индивидуально (на сколько раскрутят), можно им написать https://www.altinity.com/contact

Maksim
28.09.2017
06:45:23
! Два Зайцева в одной команде

Рулон
28.09.2017
07:37:14
Товарищи, а кто нибудь работал с apache superset ?

Andrey
28.09.2017
07:46:06
Было дело

Pavel
28.09.2017
07:49:55
Возникает проблема с шардингом Distributed. В структуре таблица с движком Distributed смотрит на два шарда time_application_method_distr. Но при вставке через эту таблицу данные на второй шард не попадают, а накапливаются в «/var/clickhouse/data/default/time_application_method_distr». В логах появляются ошибки: 2017.09.20 09:45:40.325499 [ 257 ] <Error> time_application_method_distr.Distributed.DirectoryMonitor: Code: 210, e.displayText() = DB::NetException: Connection refused: (10.76.94.203:9000), e.what() = DB::NetException, Stack trace: 0. clickhouse-server(StackTrace::StackTrace()+0x16) [0x28550d6] 1. clickhouse-server(DB::Exception::Exception(std::string const&, std::string const&, int)+0x1f) [0x286436f] 2. clickhouse-server(DB::Connection::connect()+0x98e) [0x2a2a07e] 3. clickhouse-server(DB::Connection::sendQuery(std::string const&, std::string const&, unsigned long, DB::Settings const*, DB::ClientInfo const*, bool)+0x124c) [0x2a2c93c] 4. clickhouse-server(DB::RemoteBlockOutputStream::writePrefix()+0x56) [0x2c49496] 5. clickhouse-server(DB::StorageDistributedDirectoryMonitor::processFile(std::string const&)+0x615) [0x2c16295] 6. clickhouse-server(DB::StorageDistributedDirectoryMonitor::findFiles()+0x10c) [0x2c17c4c] 7. clickhouse-server(DB::StorageDistributedDirectoryMonitor::run()+0x85) [0x2c18135] 8. clickhouse-server() [0x3198baf] 9. /lib64/libpthread.so.0(+0x7dc5) [0x7fc8a7e0bdc5] 10. /lib64/libc.so.6(clone+0x6d) [0x7fc8a56de76d] Помогает перезапуск серверов кликхауса, но спустя какое-то время ошибка повторяется.

Nikolai
28.09.2017
08:25:57
Возникает проблема с шардингом Distributed. В структуре таблица с движком Distributed смотрит на два шарда time_application_method_distr. Но при вставке через эту таблицу данные на второй шард не попадают, а накапливаются в «/var/clickhouse/data/default/time_application_method_distr». В логах появляются ошибки: 2017.09.20 09:45:40.325499 [ 257 ] <Error> time_application_method_distr.Distributed.DirectoryMonitor: Code: 210, e.displayText() = DB::NetException: Connection refused: (10.76.94.203:9000), e.what() = DB::NetException, Stack trace: 0. clickhouse-server(StackTrace::StackTrace()+0x16) [0x28550d6] 1. clickhouse-server(DB::Exception::Exception(std::string const&, std::string const&, int)+0x1f) [0x286436f] 2. clickhouse-server(DB::Connection::connect()+0x98e) [0x2a2a07e] 3. clickhouse-server(DB::Connection::sendQuery(std::string const&, std::string const&, unsigned long, DB::Settings const*, DB::ClientInfo const*, bool)+0x124c) [0x2a2c93c] 4. clickhouse-server(DB::RemoteBlockOutputStream::writePrefix()+0x56) [0x2c49496] 5. clickhouse-server(DB::StorageDistributedDirectoryMonitor::processFile(std::string const&)+0x615) [0x2c16295] 6. clickhouse-server(DB::StorageDistributedDirectoryMonitor::findFiles()+0x10c) [0x2c17c4c] 7. clickhouse-server(DB::StorageDistributedDirectoryMonitor::run()+0x85) [0x2c18135] 8. clickhouse-server() [0x3198baf] 9. /lib64/libpthread.so.0(+0x7dc5) [0x7fc8a7e0bdc5] 10. /lib64/libc.so.6(clone+0x6d) [0x7fc8a56de76d] Помогает перезапуск серверов кликхауса, но спустя какое-то время ошибка повторяется.
есть подозрение, что ошибка может быть связана с тем, что у CH вечный DNS кеш. можете прислать конфигурацию кластера?

Pavel
28.09.2017
08:40:13
есть подозрение, что ошибка может быть связана с тем, что у CH вечный DNS кеш. можете прислать конфигурацию кластера?
<remote_servers> <stats_cloud> <shard> <weight>1</weight> <internal_replication>false</internal_replication> <replica> <host>dev-ch1</host> <port>9000</port> </replica> </shard> <shard> <weight>1</weight> <internal_replication>false</internal_replication> <replica> <host>dev-ch2</host> <port>9000</port> </replica> </shard> </stats_cloud> </remote_servers>

Bulat
28.09.2017
09:21:46
а можно в запросе к MaterializedView использовать условия where? и что будет если запрос вернет пустое множество из-за того что блок данных не прошел условие?

Google
Bulat
28.09.2017
09:33:42
да

Konstantin
28.09.2017
09:33:49
да так можно



Bulat
28.09.2017
09:35:55
извините, я имел ввиду указать условие where при создании view

Evgeniy
28.09.2017
09:36:48
мы используем что-то типа 'CREATE MATERIALIZED VIEW IF NOT EXISTS x.x ENGINE = ReplicatedReplacingMergeTree() POPULATE AS SELECT * FROM x.y WHERE column > 0' и это работает

Bulat
28.09.2017
09:37:09
т.е create materialized view myview (id Int8, count text String) AS select id, text from t where id > 10;

Evgeniy - то что нужно, спасибо :)

Александр
28.09.2017
10:36:31
А кто подскажет есть какой либо мануальчик по настройке мониторинга КХ в графане?

Александр
28.09.2017
10:53:05
есть же дашборд целый под CH
Это понятно ) Он под prometheus, я даже нашел штуку которая данные дергает туда https://github.com/f1yegor/clickhouse_exporter, но только с одного сервера как я понял, еще не успел разобраться

Александр
28.09.2017
10:55:11
У меня он напрямую с CH берет статистику
Можно в личку обращусь с парой вопросов? )

Что бы тут не спамить

Vladimir
28.09.2017
13:43:42
подзапросы во вьюхах сознательно не работают?

Рулон
28.09.2017
14:08:56
Commpadres! )) А есть дока как подключить графану или графит, чтобы видеть как сервер работает? спасибо)

в tabix есть, хочется еще что нить сделать )

Yury
28.09.2017
14:24:49
Кх для этого не нужен

Mikhail
28.09.2017
14:30:46
Всем привет. Кто-нибудь использовал движок Merge (не путать с движком MergeTree)? Пробую этот движок, создал Merge таблицу с маской, в которую попадает только одна таблица. Если просто count() без условий выполнять, то одинаковое время выполнения и bytes_read/rows_read. Но если какие-то сложные запросы с условиями выполнять, то работает на 30-50% медленнее, чем если делать селект из основной таблицы. Если смотреть статистику выполнения, то читается болший объем данных bytes_read на 30% больше, при этом rows_read такое же как и при селекте из основной таблицы. Может кто-нибудь знает почему bytes_read отличается, хотя по сути читается та же одна таблица?

Александр
28.09.2017
14:42:22
Commpadres! )) А есть дока как подключить графану или графит, чтобы видеть как сервер работает? спасибо)
Я вот сегодня только настраивался по этому поводу. Доки никакой нет ) Ставишь в докере Graphana, Prometheus, https://github.com/f1yegor/clickhouse_exporter и закидываешь дашборд в графану, все.

Felixoid
28.09.2017
14:59:39
Коллеги, ищу ответ на данный вопрос, автор его тоже не получил. Удаляет ли GraphiteMergeTree данные после окончания срока хранения по retention?

Google
Felixoid
28.09.2017
14:59:39
Подскажите по движку GraphiteMergeTree он удаляет старые данные которые по дате больше максимального retension или это руками нужно удалять патриции?

Roman
28.09.2017
15:03:32
Felixoid
28.09.2017
15:04:11
угу... ага.. Спасибо

Vladislav
28.09.2017
15:26:01
Всем привет. Проблема с temp табличками. не удается создать TEMP табличку через HTTP интерфейс, с юзера, у которого нет доступа к базе default http://ch0/ ?database=project1 &session_id=152c74ad&user= project1&password=pass POST: CREATE TEMPORARY TABLE temp1 AS SELECT 1 получаем Code: 291, e.displayText() = DB::Exception: Access denied to database default, e.what() = DB::Exception http://ch0/ ?database=project1 &session_id=152c74ad&user= project1&password=pass POST: CREATE TEMPORARY TABLE project1.temp1 AS SELECT 1 Получаем Code: 60, e.displayText() = DB::Exception: Table project1. temp1 doesn't exist., e.what() = DB::Exception

Igor
28.09.2017
15:30:01
session_id нужен

Vladislav
28.09.2017
15:31:10
таки есть &session_id=152c74ad&

после открытия доступа к БД default - все заработало

Evgeniy
28.09.2017
16:35:53
Такой вопрос -- есть кластер в клихаусе, кликхаусу подсунут один инстанс зукипера в конфиге. Захотели сделать кластер зукипера, пушто под нагрузкой он иногда кидает эксепшоны. Как безопасно мигрировать не протеряв все данные в кликхаусе, есть какой-то мануал/инструкция?

Александр
28.09.2017
16:44:02
Дак просто завязываете кластер из зк и все. Ставите еще два инстанса и ниче не потеряется.

Nikolai
28.09.2017
16:52:08
<remote_servers> <stats_cloud> <shard> <weight>1</weight> <internal_replication>false</internal_replication> <replica> <host>dev-ch1</host> <port>9000</port> </replica> </shard> <shard> <weight>1</weight> <internal_replication>false</internal_replication> <replica> <host>dev-ch2</host> <port>9000</port> </replica> </shard> </stats_cloud> </remote_servers>
ничего хорошего я не придумал, а конфиг кажется правильным. могу только предложить вызывать SYSTEM DROP DNS CACHE при возникновении проблем вместо перезапуска, и посмотреть, ушла ли проблема

Evgeniy
28.09.2017
17:12:45
Ну вот мы добавили две ноды в зк, зк выбрал лидером другую голую ноду без данных, в итоге восстанавливали данные из зк снапшота, возвращали одну ноду и рестартили кликхаус пушто он начал эксепшоны кидать в цикле, короче что-то пошло не так. Но мы не особо эксперты по зк и в целом могли накосячить

Ievgen
28.09.2017
17:56:32
Господа, если есть нюансы с https://github.com/mymarilyn/clickhouse-driver это туда или сюда можно?

Mikhail
28.09.2017
18:01:56
5 сек

Kostya
28.09.2017
18:57:17
Support
28.09.2017
20:37:17
Changelog появиться в ближайшее время ?

Alexey
28.09.2017
20:44:27
Да, постараюсь добавить через несколько часов.

Andy
28.09.2017
21:55:45
Всем привет! А как вы решаете запись событий пользователей, если он был не авторизован, а потом авторизовался. Вот интересно именно вот это сопоставление событий до и после авторизации.

Alexey
28.09.2017
22:48:31
Changelog появиться в ближайшее время ?
https://github.com/yandex/ClickHouse/blob/master/CHANGELOG_RU.md

Maxim
28.09.2017
23:09:26
Всем привет!

Какой движок лучше выбрать для записи котировок биржи в реальном времени?

Google
Maxim
28.09.2017
23:10:48
Какой тип данных лучше использовать для времени сделки в микросекундах ?

DateTime тут не подходит

опс ссори в миллисекундах

papa
28.09.2017
23:14:54
uint64

Alexey
28.09.2017
23:15:08
Один UInt64: unix timestamp * 1000. Или два столбца: DateTime и ещё milliseconds UInt16.

Maxim
28.09.2017
23:18:19
Ок спасибо

Как в SQL формировать запрос по датам в случае Uint64 ?

select * from where <order datetime> > toDateTime(29-10-2017 12:23:00)*1000

papa
28.09.2017
23:28:50
toUInt64(toDateTime('2017-10-29 12:23:00'))*1000

или toUnixTimestamp

Maxim
28.09.2017
23:35:12
А обратно toDateTime(UnixTimestampInMillisec/1000) ?

Александр
29.09.2017
05:11:36
https://github.com/yandex/ClickHouse/blob/master/CHANGELOG_RU.md
Ох и спасибо таки! Интересный чейнджлог, особенно sumMap

Felixoid
29.09.2017
06:25:16
Надо сперва добавить новую ноду с новым номером, запустить её, пока кластер работает. Она скачет все данные. Затем, если надо, добавляете ещё одну, и ещё одну. Главное — следить, чтобы кворум не распался при удалении старых

Dmitriy
29.09.2017
08:10:23
Добрый день, есть таблица daily_statiscs_replicated её размер очень быстро растёт, там вся информация в построчном виде, не сгрупированная которые потом группируются и сжимаются, и её нужно очищать , но при этом хранить эту инфу за последний месяц, DELETE в click-house нет, подскажите пожалуйста как можно выйти из ситуации.

Dmitriy
29.09.2017
08:13:50
удалять партиции не вариант?
как это можно сделать?

Konstantin
29.09.2017
08:14:30
ALTER TABLE [db.]table DROP PARTITION 'name'

Tima
29.09.2017
08:14:33
как это можно сделать?
Поискать в документации по слову партиция

Google
Dmitriy
29.09.2017
08:25:53
ALTER TABLE [db.]table DROP PARTITION 'name'
спасибо, только вопрос как сделать это лучше когда у меня есть мастер и реплика?

Kirill
29.09.2017
08:26:44
на любом

Dmitriy
29.09.2017
08:28:54
на любом
если я на одном из них это сделаю, я не убью синхронизацию?

Kirill
29.09.2017
08:29:09
нет

более того, вы и писать можете в любой

Dmitriy
29.09.2017
08:29:52
Спасибо

Алексей
29.09.2017
09:56:27
Господа, а каков таймаут http запроса для получения словарей ?

Max
29.09.2017
09:56:46
а подскажите, Nullable что депрекейтнули?

Алексей
29.09.2017
09:57:16
а подскажите, Nullable что депрекейтнули?
его вроде пока не доделали еще

Max
29.09.2017
09:57:41
а то в 1.1.54236 таблица с Nullable создавалась а в 1.1.54289 уже не дает

я имею ввиду на create table

Страница 273 из 723