
Fike
05.02.2017
12:57:50
риск того, что ее кто-то забудет смонтировать

Roman
05.02.2017
16:06:12
Всем привет! Есть какие-нибудь прогнозы по решению https://github.com/yandex/ClickHouse/issues/364 ?

Maksim
05.02.2017
17:00:02
риск того, что ее кто-то забудет смонтировать
Это и с обычным линуксом кстати та еще проблема: что-то ломается в монтируемом сторадже и сервер бд радостно пишет в каталог пару дней, потом получается недоступный неудаляемый кусок данных

Pavel
05.02.2017
20:59:15
^^ на windows такой проблемы нету! :)

Google

nikoinlove
05.02.2017
21:00:01
Нет стораджа нет проблем

Pavel
05.02.2017
21:00:48
не, корень проблемы в БД
вот без БД - жезь совершенно прекрасна :)

Alexey
05.02.2017
21:46:19

Roman
05.02.2017
21:49:27

Боб
06.02.2017
05:51:08

Maksim
06.02.2017
05:59:29
ключевая проблема как раз в том, что бы база не создавала нужные директории. Это очень удобно для пользователей

Mr
06.02.2017
06:51:08
слишком много телодвижений, почему просто не прописать /mnt/clickhouse/ в docker-compose volumes?

Igor
06.02.2017
06:52:04

Боб
06.02.2017
07:25:43
т.е. можно например прописать /mnt/clickhouse/ROOT
если создать запрос вида
select (select count() from log group by userid where eventdate=today()) + (select count() from log group by userid where eventdate=today()-1) + (select count() from log group by userid where eventdate=today()-2) + ... as cnt
то подзапросы (select count() from log group by userid where eventdate=today()) будут исполняться последовательно или параллельно?

Mr
06.02.2017
07:29:45
А чего ему не смонтироваться? Довод принял, но имхо это уже не проблема докера или кликхауса.

Google

Боб
06.02.2017
07:30:36
точнее подзапросы вида:
select count() from (select userid group by userid having count() < 2)
А чего ему не смонтироваться? Довод принял, но имхо это уже не проблема докера или кликхауса.
согласен, не их проблема. Это защита от ошибок на другом уровне.
Например если пользоваться LVM-thin, то сначала всё работает. А при росте количества томов начинаешь замечать что том активируется не моментально при старте системы, а через некоторое время. Это и другие проблемы могут быть неочевидны при настройке и вызывать задержки, в гонке с которыми докер например запустится раньше, чем будет готово хранилище для базы.
Это конечно решаемо, но есть другие случаи, к которым можно быть неготовым и тогда лучше чтобы не работало - это чинить проще.


Michael
06.02.2017
08:45:53
Здравствуйте. Пытаюсь запустить тестовую конфигурацию из 4-х шардов с одной репликой, делаю всё так, как описано в документе, однако при INSERT'e получаю: Code 170 (cluster not found)
помогите понять в чём проблема
версия - последняя, поставил сегодня из репозитория

Igor
06.02.2017
09:02:21
Наверное, потому что имя кластера указано через минусики. Такое интерпретировалось в запросе как выражение с оператором минус. Попробуйте заменить минусы на _ в имени кластера.
может из-за этого?

Michael
06.02.2017
09:11:40
нет в имени кластера минусиков... af_4_shards - название кластера
таблички: локальная и распределенные создались без проблем на всех нодах

Pavel
06.02.2017
09:26:35

Michael
06.02.2017
09:30:49
michael@clickhouse-20001-001-test:~$ cat input | ./fix.pl | clickhouse-client --query="INSERT INTO inapps_dist FORMAT TabSeparated"
Received exception from server:
Code: 170. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Requested cluster 'af_4_shards' not found.

Pavel
06.02.2017
09:38:32

Michael
06.02.2017
09:40:37
ничего...

Slach
06.02.2017
09:41:25
логи посмотрите, может там в конфиге где то беда? ;)

Pavel
06.02.2017
09:42:13
Попробуйте, тогда, ещё раз провеить конфиг. Там где-то ошибка. Если всё настроено правильно, то в таблице system.clusters должна быть соответствующая запись.
@spektom Если вы разместили описание кластера в отдельном файле, то попробуйте переместить его в основной config.xml

Michael
06.02.2017
10:38:57
Нашёл проблему: пришлось закоментировать строчку <remote_servers incl="clickhouse_remote_servers" />
спасибо

Боб
06.02.2017
13:09:46
Если я делаю запрос ... from table FINAL для SummingMergeTree - я могу рассчитывать на то что строки будут идти в порядке как в ключе указано?
Например чтобы через runningDifference значения из предыдущей строки анализировать?

Алексей
06.02.2017
13:11:03

Google

Pavel
06.02.2017
13:13:52
собственно делалось так
ставилась чистая монга
после этого ДО создания юзеров откатывалась схема
var schema = db.system.version.findOne({"_id" : "authSchema"})
schema.currentVersion = 3
db.system.version.save(schema)
после этого создавался юзер

Алексей
06.02.2017
13:15:21
ага. спасибо я попробую

Pavel
06.02.2017
13:15:34
а вот тикет на базе которого я сформулировал эти команды - https://jira.mongodb.org/browse/SERVER-17459

Yury
06.02.2017
13:29:36
Всем привет!
Правильно я понимаю что если таблица Distributed смотрит на таблицы CollapsingMergeTree (или ReplicatedCollapsingMergeTree ) то ключ шардирования должен задаваться с учетом попадания различных данных по одному первичному ключу на один и тот же шард? Т.е. вообще правильно в этом случае шардировать по первичному ключу, получается?

Алексей
06.02.2017
13:32:44

Pavel
06.02.2017
13:33:06
наверное, да

Vladislav
06.02.2017
15:38:57
Всем привет.
Вернулся к задаче по сборке кликхаусе на маке. Все собралось.
Но в системе clickhouse-server не появился(папки /etc/clickhouse-server тоже).
make install .. - падает(в доке его нет, не уверен что он вообще нужен)
....
Install the project...
-- Install configuration: "RELWITHDEBINFO"
CMake Error at /Users/user/Downloads/ClickHouse/build/contrib/libpoco/cmake_install.cmake:31 (file):
file cannot create directory: /usr/lib/cmake/Poco. Maybe need
administrative privileges.
Call Stack (most recent call first):
/Users/user/Downloads/ClickHouse/build/contrib/cmake_install.cmake:33 (include)
cmake_install.cmake:32 (include)
sh-3.2# whoami
root
sh-3.2# ls -altr /usr/lib/cmake/Poco
ls: /usr/lib/cmake/Poco: No such file or directory
sh-3.2# mkdir /usr/lib/cmake/Poco
mkdir: /usr/lib/cmake: No such file or directory
sh-3.2# mkdir /usr/lib/cmake
mkdir: /usr/lib/cmake: Operation not permitted


prll
06.02.2017
15:43:11
make install - вредная идея, поставит ненужное
/etc/clickhouse-server создается при установке пакета в дебиане например, для мака всё немного по-другому и созданием правильного макового пакета еще не занимались.

Vladislav
06.02.2017
15:52:39
т.е. руками все создать?

prll
06.02.2017
15:59:37
можно скопировать конфиг dbms/src/Server/config.xml и бинарник из build/dbms/src/Server/clickhouse
а можно сразу запустить build/dbms/src/Server/clickhouse --server --config-file=dbms/src/Server/config.xml
а зачем в систему ставить? если нужен автозапуск - еще и правильные старт-стоп скрипты для этой ОС писать надо

Igor
06.02.2017
16:01:59
в идеале службу еще написать к launchd для удобного запуска/остановки, но у меня времени нет пока (

Vladislav
06.02.2017
16:06:18
Я думал, что автозапуск сам по себе появится, когда установлю в систему)
Ладно, пока запускаю руками, спасибо!

Google

Evgeny
06.02.2017
19:05:51
всем добрый вечер. вижу, что выше уже обсуждаются требования к железу. а есть ли где-либо в сети описание по требованиям? в официальной документации ничего не сказано по требуемой оперативной памяти. каков минимальный предел для "штатной" работы?

Alexey
06.02.2017
19:11:00
предполагаю, что у каждого свое понимание "штатной" работы
и зависит оно во многом от объемов данных, от патерна доступа и т.д.
или это вопрос минимального запуска на поиграться с 10 строками?
тогда причем тут железо...
вот рекомендации по типам CPU (какие там фичи используют и как проветь их наличие) было бы полезно (если этого реально нет)

Evgeny
06.02.2017
19:29:48
да, конечно у всех разные юзкейсы. но хотелось бы иметь какую-то таблицу с рекомендуемыми параметрами в зависимости от нагрузки. меня пока интересует запись 20-80 событий в секунду, примерно такой масштаб.

papa
06.02.2017
19:32:56
одной машины должно хватить.

Slach
06.02.2017
19:33:20
20 80 событий в секунду выдержит любая СУБД на 2 гигах оперативки и чата винтах

f1yegor
06.02.2017
19:34:22
Можно просто в файлик писать)

papa
06.02.2017
19:35:52

Evgeny
06.02.2017
19:38:01
файлик то можно ) а тогда CH зачем? ) дело в том, что при "записи по одной строке" как раз я на ноутбуке хватал странную ошибку когда сервер clickhouse переставал отвечать с ошибкой
Code: 210. DB::NetException: Connection refused: (localhost:9000, 127.0.0.1)
это было в виртуалке на 1гиге

Slach
06.02.2017
19:39:25
Если вы не понимаете зачем вам кликхаус значит он Вам не нужен

Pavel
06.02.2017
19:39:27
записывать по одной строке - плохая идея :)
хотя, признаться, мне не нравится идея городить приложение-буферизатор самому

Evgeny
06.02.2017
19:39:52
как раз понимаю зачем, но в данный момент нахожусь в стадии изучения

Pavel
06.02.2017
19:40:25
дизайн CH хорошо работает, когда вставки идут крупными батчами
при записи по одной строке у вас будет перестроение таблиц на каждую вставку, это будет медленно
НО он падать и выдавать ошибку как у вас - явно не должен, просто должен работать относительно медленно (относительно, опять же, кейса, когда он используется "правильно")

Google

Evgeny
06.02.2017
19:41:35
возможно он начинал настолько медленно работать, что переставал отвечать

Pavel
06.02.2017
19:41:43
возможно

Evgeny
06.02.2017
19:41:49
вот тут обсуждалось, такая проблема не только у меня встречалась https://groups.google.com/forum/#!searchin/clickhouse/evgeni$20makarov%7Csort:relevance/clickhouse/OYfKtSYKVzQ/HOQF8upDDQAJ

Pavel
06.02.2017
19:41:51
ну и 1 гб в 21м веке... не надо так! :)

Evgeny
06.02.2017
19:43:56
для экспериментов с записью с такой маленькой скоростью не ожидал подвоха )

Pavel
06.02.2017
19:44:46
честно говоря, Poco штука странная, я пытался использовать ее в своем проекте.... впечатления мягко говоря не особо

Vladislav
06.02.2017
20:20:57
Это минус эконом дедики на хетцзнере и минус виртуалбоксы ?

Pavel
06.02.2017
20:22:53
мне кажется хецнер уже такое не продает кроме как на маркете )
ну и всегда есть ребята класса online.net :)

prll
06.02.2017
20:23:10
это уже опционально.
вполне собирается и работает на arm64 без вcяких sse

Pavel
06.02.2017
20:23:19
где за те же денбги можно взять топовый E5 v4:)

Vladislav
06.02.2017
20:24:19

prll
06.02.2017
20:25:02
https://github.com/yandex/ClickHouse/commit/8b4b1534e3339847f3688a5853af0006011b8509


Vladislav
06.02.2017
23:50:00
А никто не сталкивался с такой ошибкой?
workers-MBP:test user$ cat test.csv| clickhouse-client --query="INSERT INTO test FORMAT CSV";
clickhouse-client(1086,0x70000a3b5000) malloc: *** error for object 0x10f1f6000: pointer being realloc'd was not allocated
*** set a breakpoint in malloc_error_break to debug
Abort trap: 6
в логе
2017.02.07 02:48:37.760464 [ 7 ] <Error> ServerErrorHandler: Code: 210, e.displayText() = DB::NetException: Connection reset by peer: while reading from socket ([::1]:49583), e.what() = DB::NetException, Stack trace:
0. 0 clickhouse 0x000000010f971716 _ZN10StackTraceC1Ev + 22
1. 1 clickhouse 0x000000010fbba066 _ZN2DB9ExceptionC2ERKNSt7__cxx1112basic_stringIcSt11char_traitsIcESaIcEEES8_i + 38
2. 2 clickhouse 0x000000010f99214a _ZN2DB24ReadBufferFromPocoSocket8nextImplEv + 874
3. 3 clickhouse 0x000000010e05b632 _ZN2DB10TCPHandler7runImplEv + 2434
4. 4 clickhouse 0x000000010e05bf6c _ZN2DB10TCPHandler3runEv + 28
5. 5 clickhouse 0x000000011022667f _ZN4Poco3Net19TCPServerConnection5startEv + 15
6. 6 clickhouse 0x0000000110227e9f _ZN4Poco3Net19TCPServerDispatcher3runEv + 319
7. 7 clickhouse 0x00000001102e1627 _ZN4Poco12PooledThread3runEv + 167
8. 8 clickhouse 0x00000001102dac30 _ZN4Poco10ThreadImpl13runnableEntryEPv + 96
9. 9 libsystem_pthread.dylib 0x00007fff912bbaab _pthread_body + 180
10. 10 libsystem_pthread.dylib 0x00007fff912bb9f7 _pthread_body + 0
11. 11 libsystem_pthread.dylib 0x00007fff912bb1fd thread_start + 13
версия 1.1.54140
Если шлю через curl
curl -X POST 'http://localhost:8123/?query=INSERT%20INTO%20test%20FORMAT%20CSV' --data-binary @test.csv
тогда валится clickhouse-server целиком:
2017.02.07 03:04:01.267801 [ 6 ] <Debug> executeQuery: (from [::1]:49943) INSERT INTO test) FORMAT CSV
clickhouse(2106,0x70000faa4000) malloc: *** error for object 0x1197f3000: pointer being realloc'd was not allocated
*** set a breakpoint in malloc_error_break to debug
2017.02.07 03:04:02.637927 [ 7 ] <Error> BaseDaemon: ########################################
2017.02.07 03:04:02.637955 [ 7 ] <Error> BaseDaemon: (from thread 6) Received signal Abort trap: 6 (6).
2017.02.07 03:04:02.642849 [ 7 ] <Error> BaseDaemon: 1. 1 libsystem_kernel.dylib 0x00007fff911d2dd6 __pthread_kill + 10
2017.02.07 03:04:02.642876 [ 7 ] <Error> BaseDaemon: 2. 2 clickhouse 0x000000010b466c30 _ZN4Poco10ThreadImpl13runnableEntryEPv + 96
2017.02.07 03:04:02.642881 [ 7 ] <Error> BaseDaemon: 3. 3 libsystem_pthread.dylib 0x00007fff912bbaab _pthread_body + 180
2017.02.07 03:04:02.642886 [ 7 ] <Error> BaseDaemon: 4. 4 libsystem_pthread.dylib 0x00007fff912bb9f7 _pthread_body + 0
2017.02.07 03:04:02.642891 [ 7 ] <Error> BaseDaemon: 5. 5 libsystem_pthread.dylib 0x00007fff912bb1fd thread_start + 13
2017.02.07 03:04:05.265694 [ 5 ] <Trace> SystemLog (system.query_log): Flushing query log
2017.02.07 03:04:05.278460 [ 5 ] <Trace> system.query_log (Data): Renaming tmp_20170207_20170207_73_73_0.
Abort trap: 6
маленькие файлики жрет(до 100мб)