@clickhouse_ru

Страница 616 из 723
Kirill
09.08.2018
07:07:03
max_bytes_to_merge_at_max_space_in_pool поднять стоит?
А в логи часто пишет что откинул мерж из-за этого?

Mikhail
09.08.2018
07:22:10
Всем привет! такой вопрос, есть ли возможность изменить индекс (добавить одно или несколько полей в него) для уже существующей таблицы?

Vadim
09.08.2018
07:22:28
не поднимал, в логах аномального ничего нет

сейчас идет долгий мердж, занял 28,5Г диска под него

Google
Vadim
09.08.2018
07:25:33
LoadAverage 2.4 , если нормализовать, то 7%

один мердж не распараллелить?

Kirill
09.08.2018
07:32:44
один мердж не распараллелить?
нет, один мерж не распараллелить

Vadim
09.08.2018
07:33:26
по-идее, как он закончится, инзерты должны быстрее идти?

Wolf
09.08.2018
07:33:56
да по идее в вашем конфиге он не должен особо влиять

у вас же ссд ?

Kirill
09.08.2018
07:35:55
по-идее, как он закончится, инзерты должны быстрее идти?
Только если он вам диск "нагибает" + если кусков в партиции больше 150 то КХ "притормаживает" инсерты, соответственно если мерж эти куски склеит то и инсерты быстрее будут

В system.merges можно посмотреть какие куски мержастся и что получится

Wolf
09.08.2018
07:39:17
Только если он вам диск "нагибает" + если кусков в партиции больше 150 то КХ "притормаживает" инсерты, соответственно если мерж эти куски склеит то и инсерты быстрее будут
по количеству партиций у него нет ошибок в иррор логе, ну а диск мне кажется все таки ссд, так как данных всего 2тб, а сервер на 40 ядер и 128 гигов оперативы

как вари ант идет реплика на второй сервер и возможно не хватает сети, не загружен ли случаем гигабит сети на 100%

Vadim
09.08.2018
07:42:36
нет, сейчас реплика никуда не идет, вот стата: PRC | sys 4.31s | user 41.58s | | | #proc 426 | #trun 4 | #tslpi 976 | | #tslpu 0 | #zombie 0 | clones 1166 | | | no procacct | CPU | sys 34% | user 427% | | irq 2% | | idle 3527% | wait 11% | | | steal 0% | guest 0% | curf 2.73GHz | | curscal 88% | CPL | avg1 3.57 | | avg5 3.01 | avg15 2.95 | | | | csw 178924 | | intr 481099 | | | numcpu 40 | | MEM | tot 125.6G | free 8.8G | cache 100.7G | dirty 1.7G | buff 0.0M | slab 2.7G | slrec 2.5G | shmem 3.0G | shrss 0.0M | shswp 0.0M | vmbal 0.0M | | hptot 0.0M | hpuse 0.0M | SWP | tot 0.0M | free 0.0M | | | | | | | | | | vmcom 20.6G | | vmlim 62.8G | LVM | centos-home | busy 16% | | read 660 | write 1122 | | KiB/r 123 | KiB/w 409 | MBr/s 8.0 | | MBw/s 44.9 | avq 98.07 | | avio 0.92 ms | LVM | centos-root | busy 0% | | read 0 | write 35 | | KiB/r 0 | KiB/w 22 | MBr/s 0.0 | | MBw/s 0.1 | avq 1.50 | | avio 0.46 ms | DSK | sdg | busy 13% | | read 39 | write 691 | | KiB/r 131 | KiB/w 502 | MBr/s 0.5 | | MBw/s 33.9 | avq 118.22 | | avio 1.72 ms | DSK | sdd | busy 1% | | read 24 | write 163 | | KiB/r 128 | KiB/w 404 | MBr/s 0.3 | | MBw/s 6.4 | avq 57.93 | | avio 0.77 ms | DSK | sdj | busy 1% | | read 209 | write 34 | | KiB/r 126 | KiB/w 354 | MBr/s 2.6 | | MBw/s 1.2 | avq 5.24 | | avio 0.53 ms | NET | transport | tcpi 50651 | tcpo 34781 | udpi 0 | | udpo 0 | tcpao 14 | tcppo 19 | tcprs 0 | tcpie 0 | tcpor 6 | | udpnp 0 | udpie 0 | NET | network | ipi 50655 | | ipo 34570 | ipfrw 0 | | deliv 50651 | | | | | icmpi 0 | | icmpo 0 | NET | bond0 29% | pcki 254968 | pcko 16862 | | sp 1000 Mbps | si 298 Mbps | so 1283 Kbps | | coll 0 | mlti 0 | erri 0 | erro 0 | drpi 0 | drpo 0 | NET | eno1 29% | pcki 254740 | pcko 16862 | | sp 1000 Mbps | si 298 Mbps | so 1283 Kbps | | coll 0 | mlti 0 | erri 0 | erro 0 | drpi 0 | drpo 0

Wolf
09.08.2018
07:46:14
ну в таом виде стата просто набор символов

Vadim
09.08.2018
07:49:09
... NET | bond0 29% | pcki 254968 | .... NET | eno1 29% | pcki 254740 ...

Google
Vadim
09.08.2018
07:49:35
это 300Мбит входящих в carbon-clickhouse метрик

Wolf
09.08.2018
07:49:37
у вас еще и бондинг ?

а почему 300 мбит а не 1000 ?

если бондинг

Vadim
09.08.2018
07:56:15
столько метрик влетает, больше нет

Robert
09.08.2018
08:00:33
Коллеги, подскажите где поподробней почитать рекомендации по выбору полей в индекс. Вот к примеру у меня .... Engine = MergeTree(event_date, (selection_id, received_at), 8192) и я не особо понимаю, каким образом мне подобрать поля в этот индекс. selection_id, received_at? или может три поля. Или может быть выбрать другие поля?

Tima
09.08.2018
08:07:07
Robert
09.08.2018
08:08:33
именно фильтруют/группируют. К сортировке это можно скзаать не относится?

@kshvakov спасибо!

Tima
09.08.2018
08:09:51
именно фильтруют/группируют. К сортировке это можно скзаать не относится?
Не могу сказать. Но скорее всего нет, не относится

Vadim
09.08.2018
08:10:36
по-идее, как он закончится, инзерты должны быстрее идти?
Мердж закончился , вставка не выросла, куда ещё смотреть?

Tima
09.08.2018
08:11:40
Мердж закончился , вставка не выросла, куда ещё смотреть?
А нагрузку на диск как смотрели? Можете скин скинуть iotop-а?

Vadim
09.08.2018
08:12:58
iotop -d6 : Total DISK READ : 0.00 B/s | Total DISK WRITE : 42.42 M/s Actual DISK READ: 0.00 B/s | Actual DISK WRITE: 11.43 M/s TID PRIO USER DISK READ DISK WRITE SWAPIN IO> COMMAND 25012 be/4 elastics 0.00 B/s 1343.69 B/s 0.00 % 0.01 % java -Xms1g -Xmx1g -XX:+Us~th.conf=/etc/elasticsearch 25041 be/4 elastics 0.00 B/s 1343.69 B/s 0.00 % 0.01 % java -Xms1g -Xmx1g -XX:+Us~th.conf=/etc/elasticsearch 25014 be/4 elastics 0.00 B/s 1343.69 B/s 0.00 % 0.01 % java -Xms1g -Xmx1g -XX:+Us~th.conf=/etc/elasticsearch 39011 be/4 root 0.00 B/s 671.85 B/s 0.00 % 0.01 % graphite-clickhouse -confi~e/graphite-clickhouse.conf 2246 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % graphite-clickhouse -confi~e/graphite-clickhouse.conf 5472 be/4 root 0.00 B/s 671.85 B/s 0.00 % 0.00 % graphite-clickhouse -confi~e/graphite-clickhouse.conf 5759 be/4 root 0.00 B/s 671.85 B/s 0.00 % 0.00 % graphite-clickhouse -confi~e/graphite-clickhouse.conf 4980 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % graphite-clickhouse -confi~e/graphite-clickhouse.conf 38715 be/4 root 0.00 B/s 1343.69 B/s 0.00 % 0.00 % graphite-clickhouse -confi~e/graphite-clickhouse.conf 39182 be/4 root 0.00 B/s 2.62 K/s 0.00 % 0.00 % graphite-clickhouse -confi~e/graphite-clickhouse.conf 3658 be/4 root 0.00 B/s 671.85 B/s 0.00 % 0.00 % graphite-clickhouse -confi~e/graphite-clickhouse.conf 40807 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % graphite-clickhouse -confi~e/graphite-clickhouse.conf 3699 be/4 root 0.00 B/s 1343.69 B/s 0.00 % 0.00

читабельно ?

iostat -xmt 6 : 09.08.2018 11:14:39 avg-cpu: %user %nice %system %iowait %steal %idle 16,99 0,00 2,75 0,00 0,00 80,26 Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await r_await w_await svctm %util sde 0,00 0,67 0,00 12,17 0,00 0,05 7,78 0,00 0,32 0,00 0,32 0,07 0,08 sdd 0,00 0,67 0,00 11,00 0,00 0,06 10,30 0,00 0,29 0,00 0,29 0,05 0,05 sdb 0,00 1,50 0,00 9,50 0,00 0,05 10,11 0,00 0,14 0,00 0,14 0,09 0,08 sda 0,00 0,17 0,00 13,67 0,00 0,51 75,80 0,01 0,89 0,00 0,89 0,10 0,13 sdc 0,00 1,17 0,00 20,83 0,00 2,04 200,45 0,09 4,18 0,00 4,18 0,22 0,45 sdf 0,00 0,67 0,00 18,00 0,00 0,26 30,10 0,04 2,44 0,00 2,44 0,42 0,75 sdg 0,00 0,33 0,00 9,17 0,00 0,02 5,24 0,00 0,16 0,00 0,16 0,05 0,05 sdh 0,00 0,17 0,00 12,17 0,00 0,05 8,11 0,00 0,23 0,00 0,23 0,04 0,05 sdi 0,00 0,50 0,00 14,83 0,00 2,03 280,90 0,18 12,19 0,00 12,19 0,61 0,90 sdj 0,00 0,33 0,00 11,50 0,00 0,04 7,54 0,00 0,06 0,00 0,06 0,03 0,03 dm-0 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 dm-1 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 dm-2 0,00 0,00 0,00 64,00 0,00 5,11 163,40 0,35 5,41 0,00 5,41 0,25 1,58

Wolf
09.08.2018
08:15:37
столько метрик влетает, больше нет
а диск точно ссд все таки ?

Vadim
09.08.2018
08:15:59
да, 10 штук LVMом

Wolf
09.08.2018
08:16:37
ну по нагрузке почти ее нет для ссд и по иотопу видно что никакущая нагрузка

Vadim
09.08.2018
08:20:08
вот, нагрузки нет, а инзерты идут еле-еле(28M), при тестах было 80М+

Google
Vadim
09.08.2018
08:21:13
загружено 1-1,5 ядра

Kirill
09.08.2018
08:21:22
Мердж закончился , вставка не выросла, куда ещё смотреть?
А что вообще в таблице? select partition, count() as num_parts from system.parts where table = 'ВАША ТАБЛИЦА' and active group by partition order by partition

Vadim
09.08.2018
08:22:18
select partition, count() as num_parts from system.parts where table = 'graphite' and active group by partition order by partition ┌─partition─┬─num_parts─┐ │ 201706 │ 1 │ │ 201801 │ 2 │ │ 201804 │ 1 │ │ 201805 │ 6 │ │ 201806 │ 16 │ │ 201807 │ 21 │ │ 201808 │ 18 │ └───────────┴───────────┘ 7 rows in set. Elapsed: 0.011 sec.

данные полноценные с 201805

Vadim
09.08.2018
08:23:03
тоже ищу, где плохо

инзерты отстают на 4 минуты, как догонит, включу 2й сервер и буду наблюдать за нагрузкой при наливке реплики

ещё вопрос, вроде вчера задавал: пишу в конфиге КХ <graphite_rollup> <regexp>^DevOps\,clickhouse\.</regexp> <function>avg</function> <retention> <age>0</age> <precision>5</precision> </retention> </pattern> ... <graphite_rollup> но он через время мерджит до минуты, как умолчание кто-то сталкивался

Wolf
09.08.2018
08:49:04
а ни у кого случаем нет раскиданного по европе зукипера на 7 нод ?

Ivan
09.08.2018
09:09:16
Всем привет, кто подскажет советом: Приложение на питоне, используем clickhouse_driver Есть три таблицы с одинаковыми данными, отличие что у них PK свой. Предположим таблица №1, №2 и №3 Препдоположим нам пришло 10 тыс событий и бага в том что статистика запишется так: №1 примерно 10005-10015 событий (т.е запишется больше чем пришло!!) №2,№3 запишется ровно 10 тыс событий Искали ошкибку в коде, по принтам увидели что все окей, идет ровно 3 записи Репликация асинхронная, мульти-мастер Кто подскажет может кто сталкивался с таким?

Wolf
09.08.2018
09:14:25
ну посмотрите просто какие именно записи лишние то

что это за 5-15 записей что в них

Ivan
09.08.2018
09:15:45
что это за 5-15 записей что в них
это дубли записей, с тем же datetime

код примерно такой: for table_name in [table1, table2,table3]: записать документ А в table_name

Tima
09.08.2018
09:27:33
код примерно такой: for table_name in [table1, table2,table3]: записать документ А в table_name
Если вы пишите по одной записе - это не правильно

Ivan
09.08.2018
09:28:16
нет, пишем около 20 запией разом

пишем 20 записей, 19 запишутся норм, но 1на может задублироваться

Tima
09.08.2018
09:29:59
Это мало. На каждый инсерт создается новый файл в КХ и куча других действий. И вставлять чаще чем раз в секунду - тоже плохо сказывается. Предполагаю что на 10001-ю вставку КХ что-то пишет в ответ типа ошибки. Ваш драйвер точно возвращает ошибку если не вставил?

Google
Pavel
09.08.2018
09:31:08
здравствуйте. есть какая нито зависимость между гранулярностью индекса MergeTree и оптимальным количеством вставляемых записей?

Tima
09.08.2018
09:33:46
Я допускаю что по причине частых вставок КХ становится плохо и он в какой-то момент начинает творить дичь (как например у вас)

Tima
09.08.2018
09:37:37
Wolf
09.08.2018
09:38:11
думаю самое простое почи тать лог ошибок в кх

Vadim
09.08.2018
09:52:55
инзерты отстают на 4 минуты, как догонит, включу 2й сервер и буду наблюдать за нагрузкой при наливке реплики
Сейчас даные на 2й сервер идут с максимальной скоростью, которую поддерживает 2й.400МБит/с данных уходит в реплике 1й сервер ошибок не показывает, занят на 11% по процессорам

Ivan
09.08.2018
09:59:38
думаю самое простое почи тать лог ошибок в кх
да нет, поднял логи за время дублей - ошибок нету...

Denis
09.08.2018
10:33:08
а таблица в которой записей больше одна и таже? Питон получает таймаут на инсерт и пишет все еще раз.

Ivan
09.08.2018
10:49:52
да, одна и тажа. НО пишем батчем, т.е там например 20 записей разом, и дублируются не все записи, а одна или две. Даже предположим дублирующая запись была 5ой, то 2,3,4 не дублировались...

то есть не похоже что питон повторяет запись, тогда бы были все дубли, как минимум до какой то "ошибки"

Denis
09.08.2018
10:59:01
А таблицы дистрибьютид?

Ivan
09.08.2018
11:02:43
MergeTree

или я не так понял вопрос, а так да: 3 шарда и у каждого по реплики

Wolf
09.08.2018
11:09:16
Вставляете в дистрибьютед таблицу или напрямую в репликейтедмерджтри

?

Ivan
09.08.2018
11:13:03
send_tracking_campaigns │ Distributed │ 2018-04-03 16:19:06 │ send_tracking_campaigns_replicated │ ReplicatedMergeTree │ 2018-04-03 15:08:56 да, похоже что Distributed

вот что еще интересно 1 шард - 6 дублей, где всего 4016072 записей 2 шард 2 дубля, где всего 4016988 записей 3 шард, ~6500дублей, где всего 4026013 записей

Alex
09.08.2018
11:52:39
Всем привет! Подскажите, КХ может пользователей из zookeeper брать?

Kirill
09.08.2018
11:55:00
Всем привет! Подскажите, КХ может пользователей из zookeeper брать?
В ZK можно целиком секцию users хранить и он ее должен заменить, но это не очень удобно

Google
Alex
09.08.2018
11:56:02
Почему неудобно? В такой конфигурации я смогу пользователей налету добавлять без перезагрузки КХ?

Kirill
09.08.2018
11:56:31
Почему неудобно? В такой конфигурации я смогу пользователей налету добавлять без перезагрузки КХ?
Для обновления пользователей нужно просто конфиг помепнять без перезагрузки сервера

Alex
09.08.2018
11:57:02
круто!

А почему неудобно в zookeeper хранить?

Kirill
09.08.2018
11:58:28
По дефолту неудобно, у меня для этих целей своя структура для хранения конфигов в ZK + агенты для серверов которые понимают что обновить и нужно ли каскадно ребутать сервера если нужно

Alexandr
09.08.2018
14:02:46
не могу найти инфу про обновление сервера

КХ нормально обновляется через несколько версий

Wolf
09.08.2018
14:05:36
если нет каких то фатальных изменения для вас в ченджлоге то да

Kirill
09.08.2018
14:30:00
КХ нормально обновляется через несколько версий
Он и при обновлении на следующую версию может вам что-нибудь отчекрыжить, а может и через несколько версий легко взлететь.

Wolf
09.08.2018
14:34:00
с кх можно прыгать

Kirill
09.08.2018
14:34:32
С бубном )

Страница 616 из 723