@clickhouse_ru

Страница 691 из 723
Aleksandr
08.10.2018
17:04:13
чета затупили да

я копипастил откуда-то что маунтить на внешний диск

не подумал

Google
Wolf
08.10.2018
17:05:21
по мимо метаданных там еще и системные штуки всякие даже в /etc кх пишет

Aleksandr
08.10.2018
17:05:23
но вот куда данные пропали вопрос открыт ))

и как быть с докером

Wolf
08.10.2018
17:06:01
но вот куда данные пропали вопрос открыт ))
ну с тем что вы маунтили только одну папку из всех сложно что то сказать, надо смотреть логи

и как быть с докером
ну маунтишь просто папку /etc/clickhouse

Aleksandr
08.10.2018
17:06:36
или не понял

/var/lib/clickhouse и /etc/clickhouse?

Wolf
08.10.2018
17:08:31
оба

Aleksandr
08.10.2018
17:08:59
оба
а где можно узнать про это?

а где можно узнать про это?
как догадаться что маунтить, а что нет

Wolf
08.10.2018
17:09:22
а где можно узнать про это?
Ну в документации наверно

Google
Wolf
08.10.2018
17:09:53
Я же уже написал в чем ваша ошибка и что сделать

как догадаться что маунтить, а что нет
а как вы догадываетесь в других случаях ?

Roman
08.10.2018
17:13:15
Всем привет, не нашел ответа поиском по каналу, потому спрошу: Есть желание сделать такую структуру table -> {mat. view} -> table -> {mat. view} -> table, небольшой конвейер преобразования данных, но вторая mat. view не отрабатыватет. был ли у кого опыт?

Aleksandr
08.10.2018
17:13:32
а как вы догадываетесь в других случаях ?
обычно пишут на докер хабе что куда пишется, что куда маунтить

Wolf
08.10.2018
17:13:49
а яндекс не пишет на докер хабе ?

Aleksandr
08.10.2018
17:13:51
я не сильно девопс, если это вдруг очевидно

Denis
08.10.2018
17:17:13
в докерфайле написано https://hub.docker.com/r/yandex/clickhouse-server/~/dockerfile/ USER clickhouse EXPOSE 9000 8123 9009 VOLUME /var/lib/clickhouse я бы еще и лог (var/log/ch...) с хоста монитровал, для разборок.

Mitya
08.10.2018
17:20:42
Друзья , есть спецы по Zookeeper

Отзовитесь в ЛС кому не сложнл

Aleksandr
08.10.2018
17:20:56
возможно сменили пути в какой-то момент, у меня маунтится /etc/clickhouse-server/conf.d

и такого вообще нет в докерфайле

Denis
08.10.2018
17:21:59
а вот неправильно работает) SELECT toYear(toDate('2018-01-03')) - toYear(toDate('2017-01-01')) AS x - должно получиться меньше единицы, а получается единица
если без учета leap year SELECT toDate('2018-01-01') a, toDate('2000-01-04') b, a-b AS x , x/365 а если надо точно, то наверное if else if с месяцами и днями и вычесть годы

Denis
08.10.2018
17:34:17
есть-то она есть SELECT toDate('2018-01-01') a, toDate('2017-01-04') b, a-b AS x, datediff('YEAR', b,a) xx , x/365 xy ┌──────────a─┬──────────b─┬───x─┬─xx─┬─────────────────xy─┐ │ 2018-01-01 │ 2017-01-04 │ 362 │ 1 │ 0.9917808219178083 │ └────────────┴────────────┴─────┴────┴────────────────────┘

или даже так SELECT toDate('2018-01-01') a, toDate('2017-12-31') b, a-b AS x, datediff('YEAR', b,a) xx , x/365 xy ┌──────────a─┬──────────b─┬─x─┬─xx─┬────────────────────xy─┐ │ 2018-01-01 │ 2017-12-31 │ 1 │ 1 │ 0.0027397260273972603 │ └────────────┴────────────┴───┴────┴───────────────────────┘

molo4ko
08.10.2018
17:45:45
как-то можно запретить выполнение drop/create/update-команд для таблиц и дб?

Mitya
08.10.2018
17:46:33
Друзья помогите! Как зукипер подружить с кликхаусом?

Прописали единичку в файл myid в настройках сервера

Google
Mitya
08.10.2018
17:47:14
А дальше что делать?

Ребята, помогите советом!

Myid в настройках клиента

Друзья, кто имел дело, помогите плиз

Denis
08.10.2018
18:35:19
как-то можно запретить выполнение drop/create/update-команд для таблиц и дб?
либо RO профиль, либо allow_ddl ClickHouse release 18.12.14, 2018-09-13 Добавлена настройка allow_ddl, упраляющая доступом пользователя к DDL-запросам.

Друзья помогите! Как зукипер подружить с кликхаусом?
https://clickhouse.yandex/docs/ru/operations/table_engines/replication/

Mitya
08.10.2018
18:40:24
Denny Crane, почитали всё и посмотрели и ничего не поняли

Kirill
08.10.2018
18:44:26
Denny Crane, почитали всё и посмотрели и ничего не поняли
Прочитайте ещё раз и не паникуйте так. Попробуйте сделать как написано, там ничего сложного.

Mах
08.10.2018
18:45:17
Прочитайте ещё раз и не паникуйте так. Попробуйте сделать как написано, там ничего сложного.
Проблема в том, что там нет примеров. А самому написать как-то не получается.

Mах
08.10.2018
18:45:51
(Да, нас здесь 2 с одним и тем же заданием.)

Как нет?
Хм. Сейчас перечитаю.

Denis
08.10.2018
18:52:22
а да, еще нужно это прочитать https://clickhouse.yandex/docs/ru/operations/server_settings/settings/#remote_servers

В общем КХ нода ничего не знает про кластер. каждая таблица *replicated "сама" ходит по заданному пути в зукипер и там хранит информацию, если создать таблицу с таким же путем на другой ноде, появится реплика. т.е. можно создать на 1м сервере ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard1/tableXXX', 'replica1' на втором ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard1/tableXXX', 'replica2' на третьем ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard2/tableXXX', 'replica1' на четвертом ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard2/tableXXX', 'replica2' и будет 2 реплицированных таблицы (одна с двумя шардами, каждый с одной копией) для облегчения можно использовать макросы, создать на каждой ноде свой уникальный macros.xml и сделать например такой путь '/clickhouse/{cluster}/tables/{shard}/tableXXX', '{replica}' ну и напрмер добавить базу в путь (чтобы создавать одинаковые таблицы в разных базах) '/clickhouse/{cluster}/tables/{shard}/newmydb/tableXXX', '{replica}' или так, '/clickhouse/{cluster}/tables/{shard}/newmydb_tableXXX', '{replica}' cat /etc/clickhouse-server/conf.d/macros.xml <?xml version="1.0" ?> <yandex> <macros> <cluster>new_cluster</cluster> <replica>server_sw1</replica> <shard>1</shard> </macros> </yandex> на другом сервере cat /etc/clickhouse-server/conf.d/macros.xml <?xml version="1.0" ?> <yandex> <macros> <cluster>new_cluster</cluster> <replica>server_sw112_windowsmustlive</replica> <shard>2</shard> </macros> </yandex>

макрос cluster мы используем чтобы несколько стейджей (разные кластеры КХ) пользовались одним зукипером, а путь оставался уникальным

Mitya
08.10.2018
19:22:49
а да, еще нужно это прочитать https://clickhouse.yandex/docs/ru/operations/server_settings/settings/#remote_servers

В общем КХ нода ничего не знает про кластер. каждая таблица *replicated "сама" ходит по заданному пути в зукипер и там хранит информацию, если создать таблицу с таким же путем на другой ноде, появится реплика. т.е. можно создать на 1м сервере ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard1/tableXXX', 'replica1' на втором ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard1/tableXXX', 'replica2' на третьем ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard2/tableXXX', 'replica1' на четвертом ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard2/tableXXX', 'replica2' и будет 2 реплицированных таблицы (одна с двумя шардами, каждый с одной копией) для облегчения можно использовать макросы, создать на каждой ноде свой уникальный macros.xml и сделать например такой путь '/clickhouse/{cluster}/tables/{shard}/tableXXX', '{replica}' ну и напрмер добавить базу в путь (чтобы создавать одинаковые таблицы в разных базах) '/clickhouse/{cluster}/tables/{shard}/newmydb/tableXXX', '{replica}' или так, '/clickhouse/{cluster}/tables/{shard}/newmydb_tableXXX', '{replica}' cat /etc/clickhouse-server/conf.d/macros.xml <?xml version="1.0" ?> <yandex> <macros> <cluster>new_cluster</cluster> <replica>server_sw1</replica> <shard>1</shard> </macros> </yandex> на другом сервере cat /etc/clickhouse-server/conf.d/macros.xml <?xml version="1.0" ?> <yandex> <macros> <cluster>new_cluster</cluster> <replica>server_sw112_windowsmustlive</replica> <shard>2</shard> </macros> </yandex>

макрос cluster мы используем чтобы несколько стейджей (разные кластеры КХ) пользовались одним зукипером, а путь оставался уникальным

Michal
08.10.2018
20:43:04
Проблема в том, что там нет примеров. А самому написать как-то не получается.
А вы начните от https://clickhouse.yandex/tutorial.html похоже вы этого не читали / не проходили.

Google
Denis
08.10.2018
20:43:48
Chroot же)
и чего? запустить 30 зукиперов вместо 3 ?

Mах
08.10.2018
20:43:54
Michal
08.10.2018
20:44:00
Нет

Mах
08.10.2018
20:45:50
Нет
Сейчас стоит вопрос конкретно по ZK: как их соединить друг с другом? Если у вас есть ссылка на документацию по нему, не могли бы скинуть? Я нашел официальную, от Apache, но утонул в ней.

Alex
08.10.2018
20:48:06
и чего? запустить 30 зукиперов вместо 3 ?
Секця chroot в конфиге для zoo позволяет один и тот же путь в приложении юзать, без подстановки cluster

Michal
08.10.2018
20:50:40
Там в этом примере все 3 зукипера на одной машине ставят, но суть та же.

Спасибо. Сейчас пойду читать.
Ну или тут чуть подробнее

https://www.thegeekstuff.com/2016/10/zookeeper-cluster-install/comment-page-1/

Denis
08.10.2018
20:57:23
Mах
09.10.2018
01:28:49
Парни, есть кто живой?

Denis
09.10.2018
02:11:58
Только боты.

Mах
09.10.2018
02:12:20
Жаль.

Только боты.
Был вопрос, но сейчас другие проблемы. Впрочем... Из-за чего одна реплика может висеть 'в воздухе'?

Да, и где бы посмотреть файлы, которые создают реплики? А то я её создавал/удалял, а теперь создать не могу - что-то осталось.

Google
Mах
09.10.2018
02:16:24
Что значит висеть в воздухе?
SELECT * FROM system.zookeeper WHERE path = '/clickhouse/tables/01-08/visits/replicas' На 3 клиентах показывает все 3, а на одном только себя.

Var/lib и зукипер.
А в нем это где?

В одном 2, в другом 3, в третьем одна, в четвертом не одной.
Хм. Ладно. На это я, в принципе, могу забить. Просто создам другую таблицу и к ней пачку других реплик.

Хм. Ладно. На это я, в принципе, могу забить. Просто создам другую таблицу и к ней пачку других реплик.
А вот как синхронизовать данные, я не понимаю. По шагам: Создаю таблицу ontime2 для всех 4 клиентов. Создаю для каждого из них реплику с уникальным названием. Далее, заливаю данные в... Одну из реплик? Одну оригинальную таблицу? Все реплики? Все оригинальные таблицы?

Denis
09.10.2018
02:21:04
ошибки про зукипер в логе КХ есть? и надо смотреть статус прямо в зукипере

Mах
09.10.2018
02:21:52
Mах
09.10.2018
02:22:59
т.е. есть 4 сервера и таблица должна быть одинаковая на всех четырех? 1+3 копии?
Да. И в случае отключения одного другие должны её 'подхватить'.

Mах
09.10.2018
02:25:16
они всегда "держат"
Я ещё не совсем понимаю, поэтому уточнил. + Если мы делаем insert в оставшиеся 3, то он должен пройти и потом добавить на 4.

Denis
09.10.2018
02:26:44
ну так и будет, вставка идет в таблице на одной ноде, ее реплики скачивают все что добавилось, сразу или потом.

путь одинаковый должен быть на всех 4 нодах и разное имя у реплики. как таблицу создаете?

Mах
09.10.2018
02:30:08
путь одинаковый должен быть на всех 4 нодах и разное имя у реплики. как таблицу создаете?
Оригинальная таблица - из примера ontime. Для реплик меняю название на ontime_r и engine на

Denis
09.10.2018
02:30:53
ну да ща я побежал смотреть что такое ontime

Страница 691 из 723