
Wolf
08.10.2018
17:00:44

Aleksandr
08.10.2018
17:04:13
чета затупили да
я копипастил откуда-то что маунтить на внешний диск
не подумал

Google

Wolf
08.10.2018
17:05:21
по мимо метаданных там еще и системные штуки всякие даже в /etc кх пишет

Aleksandr
08.10.2018
17:05:23
но вот куда данные пропали вопрос открыт ))
и как быть с докером

Wolf
08.10.2018
17:06:01

Aleksandr
08.10.2018
17:06:36
или не понял
/var/lib/clickhouse и /etc/clickhouse?

Wolf
08.10.2018
17:08:31
оба

Aleksandr
08.10.2018
17:08:59
оба
а где можно узнать про это?

Wolf
08.10.2018
17:09:22

Google

Wolf
08.10.2018
17:09:53
Я же уже написал в чем ваша ошибка и что сделать

Roman
08.10.2018
17:13:15
Всем привет, не нашел ответа поиском по каналу, потому спрошу:
Есть желание сделать такую структуру table -> {mat. view} -> table -> {mat. view} -> table,
небольшой конвейер преобразования данных, но вторая mat. view не отрабатыватет. был ли у кого опыт?

Aleksandr
08.10.2018
17:13:32

Wolf
08.10.2018
17:13:49
а яндекс не пишет на докер хабе ?

Aleksandr
08.10.2018
17:13:51
я не сильно девопс, если это вдруг очевидно

Denis
08.10.2018
17:17:13
в докерфайле написано https://hub.docker.com/r/yandex/clickhouse-server/~/dockerfile/
USER clickhouse
EXPOSE 9000 8123 9009
VOLUME /var/lib/clickhouse
я бы еще и лог (var/log/ch...) с хоста монитровал, для разборок.

Mitya
08.10.2018
17:20:42
Друзья , есть спецы по Zookeeper
Отзовитесь в ЛС кому не сложнл

Aleksandr
08.10.2018
17:20:56
возможно сменили пути в какой-то момент, у меня маунтится /etc/clickhouse-server/conf.d
и такого вообще нет в докерфайле

Denis
08.10.2018
17:21:59

Tima
08.10.2018
17:29:09

Denis
08.10.2018
17:34:17
есть-то она есть
SELECT toDate('2018-01-01') a, toDate('2017-01-04') b, a-b AS x, datediff('YEAR', b,a) xx , x/365 xy
┌──────────a─┬──────────b─┬───x─┬─xx─┬─────────────────xy─┐
│ 2018-01-01 │ 2017-01-04 │ 362 │ 1 │ 0.9917808219178083 │
└────────────┴────────────┴─────┴────┴────────────────────┘
или даже так
SELECT toDate('2018-01-01') a, toDate('2017-12-31') b, a-b AS x, datediff('YEAR', b,a) xx , x/365 xy
┌──────────a─┬──────────b─┬─x─┬─xx─┬────────────────────xy─┐
│ 2018-01-01 │ 2017-12-31 │ 1 │ 1 │ 0.0027397260273972603 │
└────────────┴────────────┴───┴────┴───────────────────────┘

molo4ko
08.10.2018
17:45:45
как-то можно запретить выполнение drop/create/update-команд для таблиц и дб?

Mitya
08.10.2018
17:46:33
Друзья помогите! Как зукипер подружить с кликхаусом?
Прописали единичку в файл myid в настройках сервера

Google

Mitya
08.10.2018
17:47:14
А дальше что делать?
Ребята, помогите советом!
Myid в настройках клиента
Друзья, кто имел дело, помогите плиз

Denis
08.10.2018
18:35:19

Mitya
08.10.2018
18:40:24
Denny Crane, почитали всё и посмотрели и ничего не поняли

Kirill
08.10.2018
18:44:26

Mах
08.10.2018
18:45:17

Kirill
08.10.2018
18:45:38

Mах
08.10.2018
18:45:51
(Да, нас здесь 2 с одним и тем же заданием.)


Denis
08.10.2018
18:52:22
а да, еще нужно это прочитать https://clickhouse.yandex/docs/ru/operations/server_settings/settings/#remote_servers
В общем КХ нода ничего не знает про кластер.
каждая таблица *replicated "сама" ходит по заданному пути в зукипер и там хранит информацию, если создать таблицу с таким же путем на другой ноде, появится реплика.
т.е. можно создать на
1м сервере
ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard1/tableXXX', 'replica1'
на втором
ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard1/tableXXX', 'replica2'
на третьем
ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard2/tableXXX', 'replica1'
на четвертом
ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard2/tableXXX', 'replica2'
и будет 2 реплицированных таблицы (одна с двумя шардами, каждый с одной копией)
для облегчения можно использовать макросы, создать на каждой ноде свой уникальный macros.xml
и сделать например такой путь
'/clickhouse/{cluster}/tables/{shard}/tableXXX', '{replica}'
ну и напрмер добавить базу в путь (чтобы создавать одинаковые таблицы в разных базах)
'/clickhouse/{cluster}/tables/{shard}/newmydb/tableXXX', '{replica}'
или так,
'/clickhouse/{cluster}/tables/{shard}/newmydb_tableXXX', '{replica}'
cat /etc/clickhouse-server/conf.d/macros.xml
<?xml version="1.0" ?>
<yandex>
<macros>
<cluster>new_cluster</cluster>
<replica>server_sw1</replica>
<shard>1</shard>
</macros>
</yandex>
на другом сервере
cat /etc/clickhouse-server/conf.d/macros.xml
<?xml version="1.0" ?>
<yandex>
<macros>
<cluster>new_cluster</cluster>
<replica>server_sw112_windowsmustlive</replica>
<shard>2</shard>
</macros>
</yandex>
макрос cluster мы используем чтобы несколько стейджей (разные кластеры КХ) пользовались одним зукипером, а путь оставался уникальным


Mitya
08.10.2018
19:22:49
а да, еще нужно это прочитать https://clickhouse.yandex/docs/ru/operations/server_settings/settings/#remote_servers
В общем КХ нода ничего не знает про кластер.
каждая таблица *replicated "сама" ходит по заданному пути в зукипер и там хранит информацию, если создать таблицу с таким же путем на другой ноде, появится реплика.
т.е. можно создать на
1м сервере
ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard1/tableXXX', 'replica1'
на втором
ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard1/tableXXX', 'replica2'
на третьем
ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard2/tableXXX', 'replica1'
на четвертом
ReplicatedReplacingMergeTree('/clickhouse/new_cluster/tables/shard2/tableXXX', 'replica2'
и будет 2 реплицированных таблицы (одна с двумя шардами, каждый с одной копией)
для облегчения можно использовать макросы, создать на каждой ноде свой уникальный macros.xml
и сделать например такой путь
'/clickhouse/{cluster}/tables/{shard}/tableXXX', '{replica}'
ну и напрмер добавить базу в путь (чтобы создавать одинаковые таблицы в разных базах)
'/clickhouse/{cluster}/tables/{shard}/newmydb/tableXXX', '{replica}'
или так,
'/clickhouse/{cluster}/tables/{shard}/newmydb_tableXXX', '{replica}'
cat /etc/clickhouse-server/conf.d/macros.xml
<?xml version="1.0" ?>
<yandex>
<macros>
<cluster>new_cluster</cluster>
<replica>server_sw1</replica>
<shard>1</shard>
</macros>
</yandex>
на другом сервере
cat /etc/clickhouse-server/conf.d/macros.xml
<?xml version="1.0" ?>
<yandex>
<macros>
<cluster>new_cluster</cluster>
<replica>server_sw112_windowsmustlive</replica>
<shard>2</shard>
</macros>
</yandex>
макрос cluster мы используем чтобы несколько стейджей (разные кластеры КХ) пользовались одним зукипером, а путь оставался уникальным


Alex
08.10.2018
20:42:22

Michal
08.10.2018
20:43:04

Google

Denis
08.10.2018
20:43:48
Chroot же)
и чего? запустить 30 зукиперов вместо 3 ?

Mах
08.10.2018
20:43:54

Michal
08.10.2018
20:44:00
Нет

Mах
08.10.2018
20:45:50
Нет
Сейчас стоит вопрос конкретно по ZK: как их соединить друг с другом?
Если у вас есть ссылка на документацию по нему, не могли бы скинуть? Я нашел официальную, от Apache, но утонул в ней.

Alex
08.10.2018
20:48:06

Michal
08.10.2018
20:49:12

Mах
08.10.2018
20:50:37

Michal
08.10.2018
20:50:40
Там в этом примере все 3 зукипера на одной машине ставят, но суть та же.
https://www.thegeekstuff.com/2016/10/zookeeper-cluster-install/comment-page-1/

Mах
08.10.2018
20:53:00

Denis
08.10.2018
20:57:23

Mах
09.10.2018
01:28:49
Парни, есть кто живой?

Denis
09.10.2018
02:11:58
Только боты.

Mах
09.10.2018
02:12:20
Жаль.
Только боты.
Был вопрос, но сейчас другие проблемы. Впрочем... Из-за чего одна реплика может висеть 'в воздухе'?
Да, и где бы посмотреть файлы, которые создают реплики? А то я её создавал/удалял, а теперь создать не могу - что-то осталось.

Denis
09.10.2018
02:15:06
Что значит висеть в воздухе?

Google

Mах
09.10.2018
02:16:24
Что значит висеть в воздухе?
SELECT *
FROM system.zookeeper
WHERE path = '/clickhouse/tables/01-08/visits/replicas'
На 3 клиентах показывает все 3, а на одном только себя.


Denis
09.10.2018
02:21:04
ошибки про зукипер в логе КХ есть?
и надо смотреть статус прямо в зукипере

Mах
09.10.2018
02:21:52

Denis
09.10.2018
02:22:31

Mах
09.10.2018
02:22:59

Denis
09.10.2018
02:24:22

Mах
09.10.2018
02:25:16
они всегда "держат"
Я ещё не совсем понимаю, поэтому уточнил.
+ Если мы делаем insert в оставшиеся 3, то он должен пройти и потом добавить на 4.

Denis
09.10.2018
02:26:44
ну так и будет, вставка идет в таблице на одной ноде, ее реплики скачивают все что добавилось, сразу или потом.
путь одинаковый должен быть на всех 4 нодах и разное имя у реплики.
как таблицу создаете?

Mах
09.10.2018
02:30:08

Denis
09.10.2018
02:30:53
ну да ща я побежал смотреть что такое ontime