@clickhouse_ru

Страница 657 из 723
Egor
13.09.2018
13:54:59
Denis
13.09.2018
13:55:39
спасибо, проглядел. а будут ли перенесены уже существующие данные при изменении path?
нет (сдержал 5минутный рант с матами), как вообще такие идеи приходят?

Google
Egor
13.09.2018
13:58:12
я просто действительно совсем слаб с линуксом и администрированием, и пытаюсь понять как лучше действовать, не будет ли это чревато геморроем в будущем после изменения дефолтной настройки и тп

извините за глупые вопросы

Denis
13.09.2018
14:02:29
а 42ТБ смонтировано в /home зачем? вертика?

Egor
13.09.2018
14:02:59
вертики нет, так было изначально

изначально = после установки ОС (делалось не мной)

Denis
13.09.2018
14:03:57
круто, ржачно.

Wolf
13.09.2018
14:05:33
да сделатьпросто симлинк в папку кликхауса и ок

?
13.09.2018
14:05:49
а вот я смотрю SHOW CREATE TABLE таблицы которая оч давно создавалась (в старом формате еще) и там такое ENGINE = MergeTree ORDER BY DateStamp SETTINGS index_granularity = 8192 это что значит, без партиций создавалось вообще?

Wolf
13.09.2018
14:06:14
без партиций не бывает в кх

Alexey
13.09.2018
14:07:21
@den_crane а вы случаем не занимались преобразованием из MergeTree в ReplicatedMergeTree ? Просто в инструкции: Переименуйте имеющуюся MergeTree таблицу, затем создайте со старым именем таблицу типа ReplicatedMergeTree. Перенесите данные из старой таблицы в поддиректорию detached в директории с данными новой таблицы (/var/lib/clickhouse/data/db_name/table_name/). Затем добавьте эти куски данных в рабочий набор с помощью выполнения запросов ALTER TABLE ATTACH PARTITION на одной из реплик. Не понимаю что имеется ввиду под: Перенесите данные из старой таблицы в поддиректорию detached в директории с данными новой таблицы (/var/lib/clickhouse/data/db_name/table_name/). А где данные старой таблицы лежат ? ls -la /var/lib/clickhouse/data/default/lexa_test_backup/ 19750711_19750711_1_1_0 detached format_version.txt Мне папку состоящую в названии из чисел нужно перенести в /var/lib/clickhouse/data/default/lexa_test ?

?
13.09.2018
14:07:53
без партиций не бывает в кх
а как понять с какой партицией создано? файлы так выглядят all_5458725_5458725_0

Alex
13.09.2018
14:08:29
Таблица без партиционирования - all_* это одна большая партиция.

Google
?
13.09.2018
14:08:48
мм, то есть оно у меня не разбито реально?

Evgenii
13.09.2018
14:09:43
Добрый вечер! Кто-нибудь сталкивался с проблемой подгрузки файла словарей. Три одинаковые ноды на одной файл подгружается на двух других нет. Влоги ни каких ошибок не пишет. Версии 18.10 и 18ю12 пробовал

Edya
13.09.2018
14:24:48
Привет! Подскажите, пожалуйста, по поводу AggregateFunction Есть Materialized View с ENGINE = AggregatingMergeTree , где есть колонка uniqExactState. Можно ли сделать для этой колонку какую-либо операцию помимо uniqExactMerge? В идеале, как-нибудь развернуть то что находится внутри.

Denis
13.09.2018
14:29:31
@den_crane а вы случаем не занимались преобразованием из MergeTree в ReplicatedMergeTree ? Просто в инструкции: Переименуйте имеющуюся MergeTree таблицу, затем создайте со старым именем таблицу типа ReplicatedMergeTree. Перенесите данные из старой таблицы в поддиректорию detached в директории с данными новой таблицы (/var/lib/clickhouse/data/db_name/table_name/). Затем добавьте эти куски данных в рабочий набор с помощью выполнения запросов ALTER TABLE ATTACH PARTITION на одной из реплик. Не понимаю что имеется ввиду под: Перенесите данные из старой таблицы в поддиректорию detached в директории с данными новой таблицы (/var/lib/clickhouse/data/db_name/table_name/). А где данные старой таблицы лежат ? ls -la /var/lib/clickhouse/data/default/lexa_test_backup/ 19750711_19750711_1_1_0 detached format_version.txt Мне папку состоящую в названии из чисел нужно перенести в /var/lib/clickhouse/data/default/lexa_test ?
я так не делаю, у меня данных мало, не больше 10ТБ, мне проще insert новая select from старая.

Alexey
13.09.2018
14:30:37
я так не делаю, у меня данных мало, не больше 10ТБ, мне проще insert новая select from старая.
Понял спасибо. Я только что выполнил по инструкции на сайте Преобразование из MergeTree в ReplicatedMergeTree, но данные из старой таблицы в новой не появились. Хотя все без ошибок сделал. Видимо ваш способ единственный правильный))

Egor
13.09.2018
14:36:52
да сделатьпросто симлинк в папку кликхауса и ок
то бишь хранить данные в /home, но поместить симлинк на них в /var/lib/clickhouse/?

Evgenii
13.09.2018
14:37:04
ничего, иначе бы я до сути добрался, логирование в trace выставлено

Egor
13.09.2018
14:39:01
Ну это самое простое решение
спасибо за совет а как наиболее корректно/безопасно перенести уже существующие данные? остановить КХ, скопировать всю папку /var/lib/clickhouse/ и запустить КХ? или это не так просто решается?

Wolf
13.09.2018
14:39:36
Это ок если это то что вам нужно

Если на старом месте у вас ничего не остаётся это ок

Egor
13.09.2018
14:41:15
понял, спасибо еще раз

Alexey
13.09.2018
14:56:28
Ребят скажите пожалуйста

Я вот хочу перенести данные из таблицы MergeTree в ReplicatedMergeTree

Если я так сделаю

INSERT INTO default.new_table SELECT * FROM default.old_table

это будет же работать ?

при условии что очередность и количество столбцов соблюдено

Google
Kirill
13.09.2018
14:58:15
Попробуйте и узнаете

Alexey
13.09.2018
14:58:24
Ну так сработало

я про в принципе, это правильно ? или лучше так не делать ?

Alexey
13.09.2018
15:00:27
Kirill
13.09.2018
15:00:51
Ну и если еще активно массивы используете с большим количеством элементов

Alexey
13.09.2018
15:02:48
около 100 млн записей

столбцов около 20

Kirill
13.09.2018
15:04:27
да, выставте ` SET max_threads = 1, max_block_size = 8192;`

Alexey
13.09.2018
15:05:34
да, выставте ` SET max_threads = 1, max_block_size = 8192;`
Это где высталять не подскажите ? Не могу найти в документации на сайте

Kirill
13.09.2018
15:06:00
Прям в консольке

на сессию для вашего юзера будут применены

Alexey
13.09.2018
15:06:25
Понятно теперь) спасибо буду пробовать)

Evgenii
13.09.2018
15:22:47
А что в логах?
а нет ли таймаута или счетчика через какое время проверять наличие файла?

на еще одной ноде подцепился файл с диктами

Wolf
13.09.2018
15:24:55
INSERT INTO default.new_table SELECT * FROM default.old_table
Детач аттач сработает за секунды

Alexey
13.09.2018
15:26:40
Детач аттач сработает за секунды
Погодите, разве нужно делать детач ? В инструкции сказано что нужно скопировать файлы старой таблицы, в папку detach новой таблицы, после чего просто выполнить команду ALTER TABLE default.lexa_test ATTACH PARTITION 19750711

Wolf
13.09.2018
15:27:56
Ну я делал все на лету так что надо

Google
Alexey
13.09.2018
15:29:08
Понятно. Мне нужно понять сколько по времени займет перекидывания данных моим способом) мне кажется так проще

Попробую и узнаю)

Wolf
13.09.2018
15:31:19
Ну если данных много то очень много

nnnik
13.09.2018
15:53:31
Привет! Заранее сорри за нубский вопрос, но не нашел в Инете внятного Пжл, ссылку на статью или доки как перекинуть БД с ПостгрисСКЛ на КХ. М.б. есть код, который автоматически заменяет типы полей при создании таблиц в КХ на основе типов в Постгрис? Заранее спасибо

nnnik
13.09.2018
15:59:42
))) это понятно, хотя бы ссылку на статью/пример/доки вроде, типовая задачка - должен был уже кто-то шишки набить )))

Andrey
13.09.2018
16:01:45
))) это понятно, хотя бы ссылку на статью/пример/доки вроде, типовая задачка - должен был уже кто-то шишки набить )))
Есть дока с типами таблиц которые есть в CH. Этого вполне хватит для того чтобы составить схему. Перелить можно чем угодно. Хоть через csv.

Но просто as is переезжать с PG на CH, не оч клевая идея

Alexey
13.09.2018
16:02:40
@stufently @kshvakov @den_crane Перекинул следующим способом из MergeTree в ReplicatedMergeTree: INSERT INTO default.new_table SELECT * FROM default.old_table Elapsed: 98.473 sec. Processed 46.38 million rows, 14.33 GB (471.02 thousand rows/s., 145.50 MB/s.) (это на виртуалке с 4 ядрами, и 15 Гб ОЗУ)

В принципе это быстрее, чем в ручную делать перенос данных на диске, а потом детач и атач и все дела...

Мне так кажется

Wolf
13.09.2018
16:04:33
Детач аттач занимает несколько секунд

Alexey
13.09.2018
16:05:15
А пока наберешь нужные команды со всеми нюансами и параметрами уйдет пару минут)

так что плюс минус времени уходит одинаково

GithubReleases
13.09.2018
16:14:32
yandex/ClickHouse was tagged: v18.12.14-stable Link: https://github.com/yandex/ClickHouse/releases/tag/v18.12.14-stable Release notes: v18.12.14-stable

Egor
13.09.2018
16:47:07
))) это понятно, хотя бы ссылку на статью/пример/доки вроде, типовая задачка - должен был уже кто-то шишки набить )))
https://clickhouse.yandex/docs/ru/getting_started/example_datasets/nyc_taxi/#_1 вот тут есть пример, в котором данные сначала заливают в pg, оттуда в КХ

nnnik
13.09.2018
16:58:07
https://clickhouse.yandex/docs/ru/getting_started/example_datasets/nyc_taxi/#_1 вот тут есть пример, в котором данные сначала заливают в pg, оттуда в КХ
спасибо, у меня много табличек, видимо, придется самому написать прогу, которая сгенерит скл-файл, создающий эти таблицы в КХ и вставлющей в нее данные из csv-файлов сдампенных таблиц

Pavel
13.09.2018
17:24:33
Привет!

2018.09.13 17:08:15.628349 [ 23 ] {83} <Error> executeQuery: std::exception. Code: 1001, type: std::bad_typeid, e.what() = std::bad_typeid (from 127.0.0.1:36060) (in query: INSERT INTO dns.traffic VALUES)

Что-то новенькое

Google
Pavel
13.09.2018
17:27:00
Деградация? ;( код вставки не менялся

Alexey
13.09.2018
17:27:19
2018.09.13 17:08:15.628349 [ 23 ] {83} <Error> executeQuery: std::exception. Code: 1001, type: std::bad_typeid, e.what() = std::bad_typeid (from 127.0.0.1:36060) (in query: INSERT INTO dns.traffic VALUES)
Привет. Скорее всего, версия сервера достаточно старая. Проверьте на версии 18.12.14.

Pavel
13.09.2018
17:43:36
сейчас попробую, спасибо :)

Victor
13.09.2018
18:55:41
Если у вас табличек много, вы уверены что вам КХ нужен?
когда всё делал в 5NF очень сложно понять как всё загнать в одну таблицу. А потом узнаешь про массивы...

Alexey
13.09.2018
18:59:02
Pavel
13.09.2018
19:20:25
пробуем :)

Vsevolod
13.09.2018
19:52:16
Алексей, а как вы относитесь к chproxy? Я тут, подумав, хочу вместо distributed table использовать аггрегацию на chproxy

Просто так кажется проще добавлять и удалять ноды из кластера с точки зрения управления конфигами

Alexey
13.09.2018
20:01:48
Просто так кажется проще добавлять и удалять ноды из кластера с точки зрения управления конфигами
Я сам не использовал chproxy. Отношусь хорошо :) Вы имеете ввиду просто слияние результатов с разных серверов, без всяких распределённых агрегаций, сортировок?

Vsevolod
13.09.2018
20:03:13
Вроде, chproxy заявляет, что они делают все то же, что и distributed

Vsevolod
13.09.2018
20:09:15
Вообще, у меня довольно тривиальные запросы пока что. Вот разве что window функций хочется, вы ведь их в некоем виде недавно реализовали, да?

Alexey
13.09.2018
20:15:28
Нет, не реализовали.

Dima
13.09.2018
20:19:41
а в планах есть реализация?

Нет, не реализовали.

Страница 657 из 723