
Max
04.09.2018
12:47:12

Tima
04.09.2018
12:48:19
В разных. Я пробовал вместо localhost указывать 127.0.0.1
Возможно в случае разных контейнеров в подключении нужно указывать ip-к контейнера с mysql?

Max
04.09.2018
12:50:02
Я делал через докер-композ и в настройках кх указывал алиас который в конфигурации докер композа прописал

Google

Tima
04.09.2018
12:51:27
Можете пример скинуть? Я примерно понял про что вы
Т.е. нужно указывать ip-к или имя mysql, которое выдает контейнер?

Max
04.09.2018
12:55:34

Tima
04.09.2018
12:55:55
Спасибо, жду. Пока пошёл читать про docker-compose

Alexey
04.09.2018
13:50:44
Пример docker compose с ClickHouse и MySQL есть прямо в интеграционных тестах ClickHouse:
1. https://github.com/yandex/ClickHouse/blob/master/dbms/tests/integration/helpers/docker_compose_mysql.yml
2. https://github.com/yandex/ClickHouse/blob/master/dbms/tests/integration/helpers/cluster.py#L257

Tima
04.09.2018
13:52:25

Kirill
04.09.2018
14:33:41
Привет чат
Кто-нибудь удалял дубликаты из КХ недавно?

Wolf
04.09.2018
14:36:04
мы не вставляем

Alexander
04.09.2018
14:39:19
Товарищи, подскажите, как оценить оверхед CH? Т.е. если у меня есть некоторый датасет объемом N GB, сколько мне понадобится дисков для хранения этого датасета в CH?

Tima
04.09.2018
14:41:35

Alexander
04.09.2018
14:42:32

Wolf
04.09.2018
14:42:55

Google

Yuran
04.09.2018
14:42:56

Yury
04.09.2018
14:45:02
всем привет!
когда я гружу данные из КХ в Tableau, то часто (чаще всего) строковые данные приходят в усеченном виде. Например, если в КХ лежит строка 'control_group', то в Tableau приедет 'control_g'. Кто-нибудь сталкивался с такой проблемой?

Ivan
04.09.2018
14:45:55

Yury
04.09.2018
14:46:43

Kirill
04.09.2018
14:48:37

soup
04.09.2018
15:42:52
Hi guys. not sure if anyone speak English. I saw roadmap on 2018 Q4 there is an item for distributed join. Does it mean CH will build an exchange operator for data shuffling among nodes?

Yury
04.09.2018
15:43:42

Denis
04.09.2018
18:00:01

Yury
04.09.2018
19:59:05

G
04.09.2018
22:56:48
Коллеги, есть задача SQL запросы для аналитики написать. Если кому интересно пишите в личку.

Evgeniy
05.09.2018
03:29:08

G
05.09.2018
03:53:23

Evgeniy
05.09.2018
04:20:45

LeiDruid
05.09.2018
04:26:34

G
05.09.2018
04:29:52
> что человек готов заплатить.
Совершенно верно

Evgeniy
05.09.2018
05:08:27
Псс поцоны работка есть. Никто не хочет срубить по быстрому баблишко ??

Dmitry
05.09.2018
06:36:22

Vladimir
05.09.2018
06:39:05

Денис
05.09.2018
09:57:37
Ребят, здравствуйте) покажите пример использования движка Mysql? в документации не пойму где оно

Eduard
05.09.2018
10:03:33
Сервак КХ на RAID10 (12 дисков):
EXT4-fs error (device md1): ext4_validate_inode_bitmap:99: comm clickhouse-serv: Corrupt inode bitmap - block_group = 20065, inode_bitmap = 657457169
Aborting journal on device md1-8.
EXT4-fs (md1): Remounting filesystem read-only
EXT4-fs error (device md1): ext4_journal_check_start:61: Detected aborted journal
EXT4-fs error (device md1): ext4_journal_check_start:61: Detected aborted journal
Кто-то сталкивался?

Google

Tima
05.09.2018
10:03:49

Денис
05.09.2018
10:04:14

Ivan
05.09.2018
10:08:47

Денис
05.09.2018
10:09:36
аа, оно умеет табличку вставлять, я думал моожно джоин сделать из мускула, жаль) придется костылить
с другой стороны никто не мешает делать таблицу и затирать её?

Denis
05.09.2018
10:38:33

Eduard
05.09.2018
10:40:25
Вопрос куда копать? Диски, контроллер или ОС? Может при каких-то определенных условиях проявляется, mount options или интенсивность записи/чтения итд?

Максим
05.09.2018
10:41:38
Привет! Подскажите, почему при использовании OPTIMIZE TABLE ... PARTITION ... FINAL на совсем небольших таблицах (сотни Мб) с репликацией (3 машинки) очень большие задержки (до 10 мин), в то время как на тестовом стенде без репликации всё летает (1 сек).

Denis
05.09.2018
10:45:20

Vladimir
05.09.2018
11:25:21
Ребят а как Null значения в csv писать для последующего импорта? \N?

Руслан
05.09.2018
11:26:17
Да

Kirill
05.09.2018
13:11:14
привет. есть вопрос по появившемуся TRUNCATE. если делать TRUNCATE реплицируемой таблицы, TRUNCATE так же будет сделан на всех серверах, на которых эта реплицируемая таблица заведена?

Daniel
05.09.2018
13:12:10
да ладно, давно в CH есть TRUNCATE? не было же вроде

Kirill
05.09.2018
13:12:32
добавили в одном из последних релизов

Daniel
05.09.2018
13:12:47
вот это круто

Stanislav
05.09.2018
13:13:23
Э... А чем я обрезал таблицы весной?

Daniel
05.09.2018
13:13:40
Кстати, отныне CH можно юзать в облаке, которое сегодня открыл Яндекс)
https://cloud.yandex.ru/

Stanislav
05.09.2018
13:14:13
Там цена заградительная.
Надеюсь, что сделали такую, чтоб страждущие не сожрали сразу всё приготовленное к моменту открытия

Oleg
05.09.2018
14:38:59
select из примера ведь не работает? https://clickhouse.yandex/docs/en/interfaces/formats/#capnproto или что надо сделать чтобы capnproto стал output форматом?
name: CapnProto
is_input: 1
is_output: 0
version(): 18.6.0

Google

Kirill
05.09.2018
15:58:57

Michal
05.09.2018
16:12:32

Denis
05.09.2018
18:03:28

Oleg
05.09.2018
18:04:17
Это понятно, но это не работает

molo4ko
05.09.2018
19:24:03
А можно как-то динамически конфигурировать набор словарей?

Alexey
05.09.2018
19:31:33

molo4ko
05.09.2018
19:43:31
Кстати да, должно сработать
А, ещё кстати. кх в докере, а конфиги замаунчены и изменения файла, который снаружи, не прокидываются в конфиг, который в докере. Кто-то с таким сталкивался?

Vladimir
05.09.2018
19:45:58
Конфиги пользователей у меня перечитываются на лету

Андрей
05.09.2018
20:43:55


Alexey
06.09.2018
03:39:57
Доброе утро, все пытаюсь заполнить свое AggregateMT, делал по инструкции https://groups.google.com/forum/?utm_medium=email&utm_source=footer#!msg/clickhouse/SJ9arSTPsKk/3c_jh3NLCwAJ, устанавливал set max_block_size=100000 и set max_insert_block_size=100000 и память выделял 50 ГБ на запрос все равно вылетает с ошибкой нехватки памяти типа
Progress: 181.85 million rows, 29.67 GB (25.12 million rows/s., 4.10 GB/s.) █████████████████████████████████▋ 53Received exception from server (version 18.10.3):
Code: 241. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Memory limit (for query) exceeded: would use 46.57 GiB (attempt to allocate chunk of 131072 bytes), maximum: 46.57 GiB.
0 rows in set. Elapsed: 7.316 sec. Processed 181.85 million rows, 29.67 GB (24.86 million rows/s., 4.06 GB/s.)
вот кусок конфига users.xml
<?xml version="1.0"?>
<yandex>
<!-- Profiles of settings. -->
<profiles>
<!-- Default settings. -->
<default>
<!-- Maximum memory usage for processing single query, in bytes. -->
<!-- <max_memory_usage>10000000000</max_memory_usage> -->
<max_memory_usage>50000000000</max_memory_usage>
<max_bytes_before_external_group_by>20000000000</max_bytes_before_external_group_by>
<!-- Use cache of uncompressed blocks of data. Meaningful only for processing many of very short queries. -->
<use_uncompressed_cache>0</use_uncompressed_cache>
<!-- How to choose between replicas during distributed query processing.
random - choose random replica from set of replicas with minimum number of errors
nearest_hostname - from set of replicas with minimum number of errors, choose replica
with minumum number of different symbols between replica's hostname and local hostname
(Hamming distance).
in_order - first live replica is choosen in specified order.
-->
<load_balancing>random</load_balancing>
</default>
<!-- Profile that allows only read queries. -->
<readonly>
<readonly>1</readonly>
</readonly>
</profiles>
...
после того как поменял конфиг рестартанул сервер
правда все таблицы создал до установки настроек и до SET ...=...
попробовал пересоздать таблицы после настроек - тот же результат


Алексей
06.09.2018
06:17:39
Clickhouse в облаке Яндекса - https://cloud.yandex.ru/docs/mdb/quickstart это круто! Я уже правда купил выделенных серверов, а так вариант для старта проекта очень удобный

Wolf
06.09.2018
06:21:26
ну блин на старте у всех много данных в целом , а ценники там огого, вчера посмотрел


Kirill
06.09.2018
06:24:37
Доброе утро, все пытаюсь заполнить свое AggregateMT, делал по инструкции https://groups.google.com/forum/?utm_medium=email&utm_source=footer#!msg/clickhouse/SJ9arSTPsKk/3c_jh3NLCwAJ, устанавливал set max_block_size=100000 и set max_insert_block_size=100000 и память выделял 50 ГБ на запрос все равно вылетает с ошибкой нехватки памяти типа
Progress: 181.85 million rows, 29.67 GB (25.12 million rows/s., 4.10 GB/s.) █████████████████████████████████▋ 53Received exception from server (version 18.10.3):
Code: 241. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Memory limit (for query) exceeded: would use 46.57 GiB (attempt to allocate chunk of 131072 bytes), maximum: 46.57 GiB.
0 rows in set. Elapsed: 7.316 sec. Processed 181.85 million rows, 29.67 GB (24.86 million rows/s., 4.06 GB/s.)
вот кусок конфига users.xml
<?xml version="1.0"?>
<yandex>
<!-- Profiles of settings. -->
<profiles>
<!-- Default settings. -->
<default>
<!-- Maximum memory usage for processing single query, in bytes. -->
<!-- <max_memory_usage>10000000000</max_memory_usage> -->
<max_memory_usage>50000000000</max_memory_usage>
<max_bytes_before_external_group_by>20000000000</max_bytes_before_external_group_by>
<!-- Use cache of uncompressed blocks of data. Meaningful only for processing many of very short queries. -->
<use_uncompressed_cache>0</use_uncompressed_cache>
<!-- How to choose between replicas during distributed query processing.
random - choose random replica from set of replicas with minimum number of errors
nearest_hostname - from set of replicas with minimum number of errors, choose replica
with minumum number of different symbols between replica's hostname and local hostname
(Hamming distance).
in_order - first live replica is choosen in specified order.
-->
<load_balancing>random</load_balancing>
</default>
<!-- Profile that allows only read queries. -->
<readonly>
<readonly>1</readonly>
</readonly>
</profiles>
...
Что за структура MV? Уменьшите размер max_block_size до 8к, например и max_threads в единицу


Eduard
06.09.2018
06:27:22

Google

Igor
06.09.2018
06:36:43
Ребят, а как кх работает с пределами? 1.0/-Inf будет нулём или NaN?


Alexey
06.09.2018
06:50:51
Что за структура MV? Уменьшите размер max_block_size до 8к, например и max_threads в единицу
Kirill, спасибо, вот структура
CREATE MATERIALIZED VIEW status_mv12 TO status_amt12
AS SELECT
created_at_d as created_at_d,
group_id as group_id,
user_id as user_id,
master_object_id as master_object_id,
argMaxState(object_id, event_ms_ts) AS last_object_id,
argMaxState(object_complete, event_ms_ts) AS object_complete,
argMaxState(object_complete_success, event_ms_ts) AS object_complete_success,
argMaxState(completed_at_dt, event_ms_ts) AS last_complete_dt,
argMaxState(error, event_ms_ts) AS last_error,
argMaxState(report, event_ms_ts) AS last_report
FROM status_amt12_null
GROUP BY created_at_d, group_id, user_id, master_object_id
у меня почему то возникает ощущение что настройки не применяются, например, я вижу что процентики бегут примерно с одинаковой скоростью независимо от настроек (визуальное ощущение, но я могу ошибаться)
попробую уменьшить


Evgeniy
06.09.2018
06:55:08
кто то уже юзал облако ?
Кстати, отныне CH можно юзать в облаке, которое сегодня открыл Яндекс)
https://cloud.yandex.ru/


Alexey
06.09.2018
06:58:12
Что за структура MV? Уменьшите размер max_block_size до 8к, например и max_threads в единицу
перезапустил с новыми настройками (max_block_size=1000, max_insert_block_size=1000, max_threads=1) - новая ошибка
↑ Progress: 441.17 million rows, 40.93 GB (6.91 million rows/s., 640.83 MB/s.) ████████████████████████████████████████▎ 64Received exception from server (version 18.10.3):
Code: 241. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Memory limit (for query) exceeded: would use 46.58 GiB (attempt to allocate chunk of 67108864 bytes), maximum: 46.57 GiB: (while reading column error): (while reading from part /var/lib/clickhouse/data/default/object_events_mt12/20180508_20180512_4650_4662_1/ from mark 240 with max_rows_to_read = 1000).
0 rows in set. Elapsed: 64.081 sec. Processed 441.17 million rows, 40.93 GB (6.88 million rows/s., 638.74 MB/s.)