@clickhouse_ru

Страница 721 из 723
Artem
25.10.2018
19:26:05
Постгрес уже использовали

Kirill
25.10.2018
19:28:56
В 2 раза для фичи "по другому поясу" менеджеры не поймут) будем подумать
У вас данных мало, сделайте таблицу сгруппированную по часам и с ней работайте

Google
Kirill
25.10.2018
19:33:41
я слабо представляю, как можно узнать потребление памяти запросом, не выполняя его
Более того, выполняя запрос КХ может некоректно отписывать потребление в меморитрекер и поэтому не работает вытеснение запросов группировки на диск при работе с массивами, например sumMap.

Alexey
25.10.2018
19:40:10
Kirill
25.10.2018
19:42:02
но, если эксплейн пока в планах, то увы
В новых версиях можно делать SET send_logs_level='debug'

Pavel
25.10.2018
19:42:32
Kirill
25.10.2018
19:43:53
спасибо, посмотрю
Пример с включенным дебагом kshvakov :) select count() from clickhouse_test_array SELECT count() FROM clickhouse_test_array [kshvakov] 2018.10.25 22:43:18.546621 {4f70282d-7a1e-4944-9f97-2fa99ce32afb} [ 41 ] <Debug> executeQuery: (from 127.0.0.1:59044) select count() from clickhouse_test_array [kshvakov] 2018.10.25 22:43:18.555822 {4f70282d-7a1e-4944-9f97-2fa99ce32afb} [ 41 ] <Debug> executeQuery: Query pipeline: Expression Expression Aggregating Concat Expression Null ┌─count()─┐ │ 0 │ └─────────┘ [kshvakov] 2018.10.25 22:43:18.557312 {4f70282d-7a1e-4944-9f97-2fa99ce32afb} [ 41 ] <Debug> MemoryTracker: Peak memory usage (for query): 1.04 MiB. 1 rows in set. Elapsed: 0.011 sec. kshvakov :)

Alexey
25.10.2018
20:14:04
@kshvakov добрый вечер

скажите пожалуйста

вам это что-нибудь говорит ?

message: Memory limit (for query) exceeded: would use 9.32 GiB (attempt to allocate chunk of 4194304 bytes), maximum: 9.31 GiB)



Kirill
25.10.2018
20:24:42
вам это что-нибудь говорит ?
Да, вы уперлись в дефолтовый max_memory_usage

Alexey
25.10.2018
20:26:46
Да, вы уперлись в дефолтовый max_memory_usage
Я что то не могу найти где указывается значение для этого параметра в config.xml. Его там же нужно указывать да ?

Google
Alexey
25.10.2018
20:27:08
дефолтовое значение равно количеству оперативной памяти ?

Denis
25.10.2018
20:28:29
max_memory_usage The maximum amount of RAM to use for running a query on a single server. In the default configuration file, the maximum is 10 GB. https://clickhouse.yandex/docs/en/operations/settings/query_complexity/

Denis
25.10.2018
20:29:16
cat /etc/clickhouse-server/conf.d/memory_usage.xml <?xml version="1.0" ?> <yandex> <profiles> <default> <max_bytes_before_external_group_by>25323460608</max_bytes_before_external_group_by> <max_memory_usage>70646921216</max_memory_usage> </default> </profiles> </yandex>

Alexey
25.10.2018
20:29:24
увидел в users.xml указывается

Denis
25.10.2018
20:30:28
да, если своп есть

иначе oom придет

Alexey
25.10.2018
20:31:00
а если своп всего на 1 гб + RAM на 16 можно указать 30 Гб ?

то есть будет хотя бы медленно но работать ?

Denis
25.10.2018
20:32:30
а если своп всего на 1 гб + RAM на 16 можно указать 30 Гб ?
не будет работать. В чем вообще проблема? Расход памяти на запрос можно уменьшить.

Alexey
25.10.2018
20:34:04
Alexey
25.10.2018
20:34:25
да
а каким образом ?

Denis
25.10.2018
20:35:04
а каким образом ?
все 459 способов перечислить? Могу лекцию провести 6 часов, $400 /час.

Alexey
25.10.2018
20:35:48
Не, я имею ввиду можно в config.xml или users.xml что то поменять получается ?

Denis
25.10.2018
20:36:02
запрос покажите, хватит играть в партизанов.

или сразу читайте https://clickhouse.yandex/docs/en/query_language/select/

max_bytes_in_join, max_bytes_before_external_sort, max_bytes_before_external_group_by

Google
Alexey
25.10.2018
20:37:53
Kirill
26.10.2018
04:14:47
Michal
26.10.2018
05:33:22
И этот результат точно не нужен в проде.
Если нужна "песочница", которая будет видеть данные из продукции, то на стейджинге сконфигурируйте кластер, который будет "смотреть" на продукцию пользователем r/o. Ну а потом просто на стейджинге создаёте в нужном месте distributed таблицу. И вуаля - все данные видны, можно насоздавать кучу таблиц вокруг, которые никак продукцию не портят. Если любите острые ощущения, то можно сделать и так чтоб в ту таблицу еще можно было писать "понарошку" так, чтоб записанные данные были видны только на стейджинге, а продукция об этом не знала. В этом случае в конфигурацию продукцийного кластера на стейджинге добавьте ещё один шард, который будет "смотреть" на стейджинг сервер. При создании Distributed таблицы подкрутите sharding key так, чтоб инсерты всегда попадали на этот шард.

Igor
26.10.2018
06:01:11
Добрый день. Есть висящие запросы на всем кластере для distributed таблицы, они и не выполняются и после kill query снова появляются. Рестарт серверов не помогает

подскажите плиз, где искать эти 'scheduled' таски на запросы ? а то я в самом КХ и зуукипере не нашел

Vladimir
26.10.2018
06:32:43
Доброе утро Прикрутил к ДЕМО аккаунту КХ мониторинг Кто хочет поиграться идем сюда https://apps.sematext.com/demo потом кликаем на *Test.CH*

Vladimir
26.10.2018
06:44:26
Я боюсь меня забанят за рекламу, я вам в личку пришлю, впринципе по ссылке все видно.

Wolf
26.10.2018
06:48:33
да уже посмотрел , мне кажется чат должен приветствовать рекламу хороших продуктов связанных с кх это сделает его еще более популярным.

Vladimir
26.10.2018
06:54:54
Первые 2 недели триал Потом бесплатно будет показывать только последние 30 мин данных К сожалению так.

Igor
26.10.2018
06:58:44
https://grafana.com/dashboards/2515 https://grafana.com/dashboards/869 Юзаем эти две штуки, функционала даже поболее + бесплатно

Vladimir
26.10.2018
07:03:12
Бывает есть не только КХ, но и кафка, зукипер, эластиксерч например + куча логов раскиданных по 50 тачкам Удобно когда это все в одном месте (UI) и не надо думать где и как хранить, поставил агента и погнали Каждый подход имеет право на жизнью. Бесплатная альтернатива это ?

Igor
26.10.2018
07:08:26
в графане можно визуализировать вообще все. У нас например в одной графане кафка, эластик, постгрес, касандра и овер 100500 еще всего, включая метрики с наших собственных апликух

Mike
26.10.2018
07:09:17
https://grafana.com/dashboards/2515 https://grafana.com/dashboards/869 Юзаем эти две штуки, функционала даже поболее + бесплатно
Спасибо) Как раз хотел спросить про дашборды для графаны) Датасорс напрямую КХ?

Igor
26.10.2018
07:09:27
да

Mike
26.10.2018
07:09:36
?

Igor
26.10.2018
07:09:52
только надо окуратно сделать distributed таблицу для system.query_log

Google
Igor
26.10.2018
07:11:55
я не дэвопс, поэтому где хранится не знаю. Но настраивали относительно быстро т.к. для всего почти есть готовые плагины

Mike
26.10.2018
07:12:21
только надо окуратно сделать distributed таблицу для system.query_log
какой-нибудь мануал есть на эту тему? или там просто все? сейчас у нас в графит, мне кажется метрики КХ пишет и несколько рукотворных дажшбордов, которые меня слабо устраивают

Mike
26.10.2018
07:21:47
спасибо

Vlad
26.10.2018
07:37:43
господа, а поясните плиз про optimize deduplicate на ReplacingMergeTree: 1. оно гарантирует отсутствие дупов после выполнения OPTIMIZE DEDUPLICATE? 2. может тогда OPTIMIZE FINAL DEDUPLICATE гарантирует, если 1 нет? 3. судя по быстрым повторным вызовам OPTIMIZE DEDUPLICATE где-то хранит состояние, что дупы удалены? 4. чем чреваты частые вызовы (например, раз в минуту, если что-то поменялось в БД)?

Alexey
26.10.2018
07:44:55
Добрый день ! Подскажите пожалуйта значение max_memory_usage = 10000000000 Можно ли этот параметр указывать в более удобных значениях ? типа Мб, или Гб ?

типа 10Gb



Denis
26.10.2018
08:12:00
а есть тут кто из фланта?

Alexey
26.10.2018
08:39:20
Нет, надо сделать
Спасибо за ответ !

Amelia
26.10.2018
08:43:15


Всем привет! А подскажите, как сделать такую штуку. Есть колонка с массивами строк. Каждый массив было бы хорошо транспонировать по строкам, а потом посчитать сумму по всем одинаковым строкам в массивах. Исходные данные такие:

А в итоге надо получить такое: Sunmar 666 Anex 7777 Biblio 111

в постгресе есть вроде такие функции. а в кликхаусе?

Alexey
26.10.2018
08:46:16
@kshvakov Кирилл подскажите пожалуйста каким образом можно посмотреть данные из конкретной партиции ?

Denis
26.10.2018
08:46:25
в постгресе есть вроде такие функции. а в кликхаусе?
https://clickhouse.yandex/docs/en/query_language/functions/splitting_merging_functions/

Amelia
26.10.2018
08:47:48
сплит просто разбивает строку на подстроки и обращает в массив. мне нужен аналог unnest array

Alexey
26.10.2018
08:48:58
@kshvakov SELECT distinct partition_id FROM system.parts WHERE table = 'my_table_1'; Так верно ?

Denis
26.10.2018
08:54:59
я бы один проход сделал, чтобы уникальные значения найти в массивах, а потом по этим значениям суммировал бы вхождения

Google
Dmitry
26.10.2018
08:55:56
сплит просто разбивает строку на подстроки и обращает в массив. мне нужен аналог unnest array
https://clickhouse.yandex/docs/ru/query_language/select/#array-join Есля я правильно понял, Вам нужно это.

Denis
26.10.2018
08:58:15
оу. странное название выбрали для функции

Dmitry
26.10.2018
09:00:25
Тоже удивился, когда понадобилось. Искал unnest, explode и тд, а нашел join)

Denis
26.10.2018
09:01:18
самое забавное, что я её видел, но думал, что она именно джойнит, а джойнит на самом деле arrayConcat

но если читать не по-английски, а по-SQLски, то всё логично

Vladimir
26.10.2018
09:04:19
всем привет! хочу подключить postgre в КХ как ext dict для быстрых селектов надо ли как-то настраивать типы колонок или выбирать какой-то специальный движок, и есть ли вообще подводные камни?

Mike
26.10.2018
09:07:06
через odbc словари из PG гоняем. Как таблицы их обернули и в join-ах используем. каких-то проблем не замечено

Vladimir
26.10.2018
09:07:52
а по производительности на сколько порядков быстрее?)

Mike
26.10.2018
09:08:59
кто кого быстрее?

Vladimir
26.10.2018
09:10:48
селекты из pg по сравнению с селктами из КХ

Mike
26.10.2018
09:12:04
мы в словари загоняем именно словари (небольшого размера, до нескольких десятков тыс. значений), основные даныые всегда в кх. раньше основные данные в вертике держали - вот во сравнению с ней прирост по скорости измеряется порядками

Vitaly
26.10.2018
09:58:02
всем привет! нужна помощь Дано: docker from ubuntu:xenial и установка по инструкции https://clickhouse.yandex/docs/en/getting_started/ Когда: запускаю команду sudo service clickhouse-server status Тогда: получаю clickhouse-server service is stopped Когда: запускаю команду sudo service clickhouse-server start Тогда: получаю сообщение Start clickhouse-server service: bash: /usr/bin/clickhouse-extract-from-config: Operation not permitted Cannot obtain value of path from config file: /etc/clickhouse-server/config.xml Когда: запускаю команду clickhouse-server —config-file=/etc/clickhouse-server/config.xml Тогда: получаю clickhouse-server: Operation not permitted При этом: лог /var/log/clickhouse-server - пуст Заранее спасибо за содействие!!!

Страница 721 из 723