
Alexey
27.03.2018
06:51:02
Дропать паптиции, пересоздавать таблу

Kirill
27.03.2018
06:51:25

Alexey
27.03.2018
06:51:46
Можно остановить сервер, удалить данные на диске, запустить :)

Konstantin
27.03.2018
06:57:44

Google

Dmytro
27.03.2018
07:05:22
Здравствуйте, нужно развернуть кластер клика. Вижу что он использует зоукипер. Я так понял для работы очереди. Если в процесе работы кластера зоукипер ребутница (удалятся все его внутриние данные), то как это повлияет на кластер клика? (потеряются данные которые не успели обработатся кликом или кластер развалится?)

Stanislav
27.03.2018
07:06:09
Хуже - партишны, не обозначенные в зукипере, выпадут в detached, как минимум.

Kirill
27.03.2018
07:06:09


Dmytro
27.03.2018
07:12:56
спасибо, а как по использованию места зоунипером? зависит от размера данных сохраненых кликхаусом или только от потока даных. Тоесть, есть сейчас синг инстанс с размером данных 400 гиг, хочется перенести все в кластер 2х2, как можно расчитать ресурсы для зоукипера?

Maksim
27.03.2018
07:15:16
насчет потока данных не знаю, но в зукипере зранится вся информация о таблицах и их партициях, но даже так это не особо существенных объем, главное ограничить количество снапшотов + бинлогов

Kirill
27.03.2018
07:15:37

Dmytro
27.03.2018
07:17:08
спасибо

Alex
27.03.2018
09:47:42
День добрый!
После перехода на 1.1.54370 перестала работать компиляция запросов. Пускаем в докере "ванильный" образ. Валится шланг:
https://gist.github.com/alex-krash/78f2df4426a351ba2ea5136ade16219f

Ivan
27.03.2018
09:52:28
Здравствуйте. У меня был вопрос по поводу доступа к clickhouse на виртуальной машине wmvare из Windows 7, не получалось пробросить порты. Проблема осталась, но у меня получилось сделать проброс для сервера apache. Вопрос в том, почему подобный подход не срабатывает с clickhouse?

Nikita
27.03.2018
09:56:09

prll
27.03.2018
09:56:14
<listen_host>::</listen_host>

Nikita
27.03.2018
09:57:53
Либо private network, не помню как этот режим сети называется в vmware

Google

prll
27.03.2018
09:58:32

Ivan
27.03.2018
10:00:28
можно сюда скрины скинуть, чтобы показать как настроено?

Wolf
27.03.2018
10:09:59
може мой , читайте доку вникайте в линукс
надо <listen_host>0.0.0.0</listen_host>
для того чтобы слушать все ипв4 на сервере

Alex
27.03.2018
10:10:51
В докере стандартном с 16.04 ?
root@xxx.local:/# uname -a
Linux xxx.local 4.13.6-0.1-default #1 SMP PREEMPT Thu Oct 12 18:24:34 UTC 2017 (5a88d59) x86_64 x86_64 x86_64 GNU/Linux
root@xxx.local:/# cat /etc/issue
Ubuntu 16.04.4 LTS \n \l

Ivan
27.03.2018
10:23:28
кстати, а почему бы по умолчанию listen_host не прописать, чтобы вопросов у новичков не было?

Гаврилов
27.03.2018
10:27:55
чтобы не открывать систему голой задницей в инет

Ivan
27.03.2018
10:29:50

Гаврилов
27.03.2018
10:30:31
https://clickhouse.yandex/docs/en/operations/server_settings/settings/#listen_host
поиск вообще просто так там?

Ivan
27.03.2018
10:31:18
Примеры:
<listen_host>::1</listen_host>
<listen_host>127.0.0.1</listen_host>
офигенные примеры

Гаврилов
27.03.2018
10:31:31
Restriction on hosts that requests can come from. If you want the server to answer all of them, specify ::.

Ivan
27.03.2018
10:31:43
может дописать что делает каждая строчка?

Google

strange
27.03.2018
10:32:02

Гаврилов
27.03.2018
10:32:28
все нормально расписано

Ivan
27.03.2018
10:32:31
и сказать что по умолчанию стоит ::1, в целях безопасности

Гаврилов
27.03.2018
10:32:39
я почему-то с 1 взгляда нашел все это
когда настраивал

Ivan
27.03.2018
10:34:15
ну может я туповат, но мы с нашим админом часа 2 потратили пока разбирались

strange
27.03.2018
10:34:51

Wolf
27.03.2018
10:35:39
Пора менять админа)

Ivan
27.03.2018
10:36:20

Геннадий
27.03.2018
10:36:42
Пора перестать нанимать админов)

Ivan
27.03.2018
10:40:11

strange
27.03.2018
10:42:31

Alexander Nairashvili
27.03.2018
10:42:35

strange
27.03.2018
10:42:57

Sergey
27.03.2018
10:43:12
или MongoDB, которых тысячи торчали наружу. Тоже по дефолту открыта

strange
27.03.2018
10:43:20
эластик там же

Aloneibreak
27.03.2018
10:45:42
добрый день
есть 4 ноды КХ
на каждой ноде создана таблица table1_real MergeTree
так же на каждой ноде создана таблица table1 Distributed которая смотрит в table1_real
периодически - раз в день, раз в неделю (разные промежутки) эти таблицы дропаются, пересоздаются и наполняются данными
в какой-то момент начинает выпадать ошибка
There is no table .table1_real on server: ......
лечится пересозданием Distributed таблиц на всех нодах
подскажите как бы вообще избежать такой проблемы?

Ivan
27.03.2018
10:46:09

Wolf
27.03.2018
10:47:06

Атата
27.03.2018
10:47:11

Google

strange
27.03.2018
10:47:12

Andrey ?
27.03.2018
10:47:26

strange
27.03.2018
10:47:30

Атата
27.03.2018
10:48:12
поймите, вы отнимаете время и внимание людей, которое могло бы пойти в более продуктивное русло

Ivan
27.03.2018
10:49:09
я потратил время нескольких людей и пытаюсь понять, можно ли было этого избежать.

Атата
27.03.2018
10:50:13

Alexey
27.03.2018
10:51:27
может быть в скрипте где-то опечаточка? у меня, например, несколько таблиц пересоздаются раз в 5 минут и наполняются данными, такой проблемы не встречал


Aloneibreak
27.03.2018
10:55:17
дропайте партишены а не таблицу
проблема в том, что дроп я делаю не столько для очистки, сколько для обновления данных.
то есть у меня есть некие строки с парой атрибутов. и со временем атрибуты этих строк могут меняться и мне нужно актуализировать данные

Alexey
27.03.2018
10:56:41
посмотреть в момент проблемы show create table table1, что там за таблица указана, с точкой ли

Wolf
27.03.2018
10:56:44

Aloneibreak
27.03.2018
10:57:46

Wolf
27.03.2018
10:58:10
партиций просто не будет после того как вы их дропните, конечно создадутся новые

Aloneibreak
27.03.2018
10:58:22

Wolf
27.03.2018
10:59:39

Alex
27.03.2018
10:59:42

Aloneibreak
27.03.2018
11:00:39

Alexey
27.03.2018
11:01:15
drop create ? и на них есть дистрибьютед таблица ?
не, там общая таблица Merge смотрит на 2 таблички, с данными за сегодня и за другие дни. Пересоздается таблица с данными за сегодня, для интерфейса, жирный селект на 300 секунд. Так получается, что данные обновляются раз в 5 мин, вполне норм. Пересоздается так: сначала в темповую, а потом два rename table, получается моментально, никто не успевает заметить подмены :)

Google

Wolf
27.03.2018
11:02:34
не, там общая таблица Merge смотрит на 2 таблички, с данными за сегодня и за другие дни. Пересоздается таблица с данными за сегодня, для интерфейса, жирный селект на 300 секунд. Так получается, что данные обновляются раз в 5 мин, вполне норм. Пересоздается так: сначала в темповую, а потом два rename table, получается моментально, никто не успевает заметить подмены :)
Возможно rename тут лучше чем drop create, но в целом правильно все таки дропать партиции.

Aloneibreak
27.03.2018
11:06:09
ошибка так же воспроизводится на таблице, которая не пересоздается постоянно
создал свежую таблицу. сначала MergeTree на всех четырех нодах
затем Distributed поверх них на каждой ноде
залил туда данные и все было хорошо
спустя несколько часов ошибка начала воспроизводиться (

Ivan
27.03.2018
11:09:24
при чтении справки на русском, возникает ощущение, что переводили гугл транслейтом с минимальными правками. Это только у меня так?

Ivan
27.03.2018
11:09:47
да

Гаврилов
27.03.2018
11:09:49
русский был исходником
или нет?)

Ivan
27.03.2018
11:10:33

Гаврилов
27.03.2018
11:10:59
россия многонациональная страна)

papa
27.03.2018
11:11:38
Алексея раскрыли.

Nikita
27.03.2018
11:11:45

Aloneibreak
27.03.2018
11:13:31
а есть разница как создавать Distributed таблицы?
полноценным create table запросы или простым create table t1 as t2 engine distributed()?

Ivan
27.03.2018
11:14:44

Vsevolod
27.03.2018
11:17:46
нет, просто писал умный человек на своем уровне

Dmitry
27.03.2018
11:18:22

Ivan
27.03.2018
11:18:24
"Для клиента командной строки, используемого в интерактивном режиме, по умолчанию используется формат PrettyCompact (прикольные таблички, компактные)."

Yuran
27.03.2018
11:19:36

Alex
27.03.2018
11:24:41

Kirill
27.03.2018
11:25:57
А Яндекс ClickHouse в Porto запускает )

Гаврилов
27.03.2018
11:32:47
у нас кх работает как база, которую можно целиком потерять)