
Maksim
20.06.2017
09:15:16

Pavel
20.06.2017
09:19:49
@milovidov_an не хватает тестов физической железки в ряду =(
И контейнеров! :)

Maksim
20.06.2017
09:20:31
какой instance предпочтитетльнее для работы КХ?

Google

Andrey
20.06.2017
09:23:53
железный :)

Maksim
20.06.2017
09:24:02
из списка который есть

Ivan
20.06.2017
09:30:56
это очень мало
надо апгрейдить виртуалку
она съела все кредиты
почитай что это такое

Maksim
20.06.2017
09:31:16
да я почитал
я создаю c4.xlarge инстанс
думаю он спасет)
и еще одна проблема мы используем gp2 диск на 100 гигов. а это всего 300 IOPS что может тормозить дополнительно

Ivan
20.06.2017
09:32:31
кликхаус создан чтобы работать на не очень быстрых дисках

Maksim
20.06.2017
09:35:41
ничего себе не на быстрых. по 5 тыс IOPS

Pavel
20.06.2017
09:37:12
обычная сата - это от силы 200-300 IOPS

Google

Pavel
20.06.2017
09:37:18
и клихаусу вполне хватает

Maksim
20.06.2017
09:38:04
в общем наша ошибка была в том что мы взяли T2 инстанс под кх. он съедал кредиты цпу мигом и потом тормозил

Александр
20.06.2017
09:39:58
Кто-то может подсказать как можно в КХ просуммировать по следующей логике.
Есть вот такой результат https://img.facedsid.ru/6e9wq.jpg
Суммировать нужно все, что между строками у которых skip = 1 :) При этом еще как то умудриться выдернуть первый eventTime который лежит в промежутках между skip = 1 и собственно на выходе должно получиться что-то вроде:
2016-11-09 18:43:08 - 29
2016-11-09 19:52:08 - 1318
и т.д.
Суммировать нужно колонку duration )

Ivan
20.06.2017
09:50:06

Maksim
20.06.2017
09:50:31

Vladimir
20.06.2017
09:53:24
@maksim_melnichuk я бы сказал, что это хорошая идея (и по бюджету и в целом) вынести DWH за пределы Amazon'а. Под DWH я понимаю все что хранить данные которые нужны для анализа вашими аналитиками, а не реально для работы системы
вынести это куда-нибудь в хецнер - будет скорее всего ощутимо дешевле
и при этом проблем с гипервизором не будет

Pavel
20.06.2017
09:54:04
online.net люто рекомендую =)

Maksim
20.06.2017
09:54:33

Vladimir
20.06.2017
09:54:33
ну там варианты уже ) не таких дорогих хостингов прям много

Pavel
20.06.2017
09:54:52
полный контроль... я бы НЕ РЕКОМЕНДОВАЛ если дорожите своим бизнесом %)

Vladimir
20.06.2017
09:55:15
особенно если все в белую делать
просто надо иметь в виду что хецнер очень дешевый и в случаи чего виноват клиент по их мнению

Pavel
20.06.2017
09:55:53
хецнер это не для mission critical. точка =)
там как повезет, повезет с железкой - будет все ок долгие годы

Vladimir
20.06.2017
09:56:27
разово на каждую замену каждой железки

Google

Pavel
20.06.2017
09:56:35
увы, это не решает
траст ми! айм энджинер!
ну точнее я 7 лет с ними работал с несколькими тысячами машин в саб-аренде

Maksim
20.06.2017
09:57:29

Pavel
20.06.2017
09:57:37
отвественность? о чем вы?
железка в месяц стоит дешевле чем ужин в ресторане

Vladimir
20.06.2017
09:58:18
хетцнер используйте

Vladimir
20.06.2017
09:59:21

Roman
20.06.2017
09:59:33
сейчас насоветуют)

Vladimir
20.06.2017
10:05:07

Pavel
20.06.2017
10:05:53
свое в своем дц со своим техником - маст, если mission critical :)
а иначе будут постоянно постмортемы в стиле "ну у нас облако упало, мы не виноватые такие"

Vladimir
20.06.2017
10:08:40
@pavel_odintsov вопрос должен быть исходя из затрат и выгоды
если затраты на свой ДЦ превышают потери от падения - то как бы и ладно, пусть падает
ровно поэтому и хецнер ок, если ты стартап, например
потому что выгода превышает риск

Alex
20.06.2017
10:16:04
много кто советует хетцнер, но там же есть ограничения по траффику. аще не комильфо.

Pavel
20.06.2017
10:18:45
они наружу же, а не во внутренней сети
внутри можно ваще свич свой попросить и в стойку влепить :)

Sergey
20.06.2017
10:19:38
А кто-нибудь пробовал clickhouse на RPi

Google

Sergey
20.06.2017
10:19:38
?

Alex
20.06.2017
10:20:09

Pavel
20.06.2017
10:23:13
увы тогда

Vladislav
20.06.2017
10:44:28
подскажите, какой наиболее оптимальный порядок полей в первичном ключе
например, есть колонки в PK дата, id сайта, id страны
причем стран гораздо больше, чем сайтов
какая комбинация выгоднее: (date, id сайта, id страны) или (date, id страны, id сайта)?

Andrey
20.06.2017
10:54:28
id сайта, id страны
А дату какой смысл тащить туда? Она и так PK

Vladislav
20.06.2017
10:59:54
у меня просто ReplacingMergeTree и дата нужна для замены
ок, спасибо
т.е. более вариативный столбец ставим после менее вариантивного

Andrey
20.06.2017
11:08:01
Да, верно.

papa
20.06.2017
11:22:52
подскажите, какой наиболее оптимальный порядок полей в первичном ключе
например, есть колонки в PK дата, id сайта, id страны
причем стран гораздо больше, чем сайтов
какая комбинация выгоднее: (date, id сайта, id страны) или (date, id страны, id сайта)?
зависит от того, какие будут запросы. если они всегда включают фильтр по id сайта и диапазону дат, то лучше (счетчик, дата), если нет, то могут быть разные варианты.

Dmitry
20.06.2017
11:23:58
подскажите пожалуйста, возможно ли настриоть хранение данных на двух дисковых массивах одного сервера? к примеру: данные за последний месяц на первый(SSD), остальные данные на второй(SATA).

Alexander
20.06.2017
11:35:16
а у КХ есть какой нибудь флаг дебага для запуска из консоли? а то
> clickhouse —extract-from-config —config-file=/etc/clickhouse-server/config.xml —key=path
> /work1/clickhouse/
и все, процесс не поднимается

prll
20.06.2017
11:41:56

Sergey
20.06.2017
11:42:40

prll
20.06.2017
11:43:09
если хочется с такими железками поиграть - лучше odroid c2 , там и памяти 2g и процессор побыстрее
и еще особенность - clickhouse сейчас не собрать на железке с 2gram, а своп изнасилует sdкарту и если и соберется - очень долго

Alexander
20.06.2017
11:47:57
так, попырил сырцы, все просто, —stacktrace —log-level debug
хотя, один чорд понятнее не стало, почему не взлетает
> $ clickhouse —extract-from-config —config-file=/etc/clickhouse-server/config.xml —key=path —stacktrace —log-level debug
> 2017-06-20 07:52:20.029 <Warning> ConfigProcessor: Include not found: clickhouse_compression
> /work1/clickhouse/

prll
20.06.2017
11:55:10
лог создается?

Alexander
20.06.2017
11:58:10
лог создается?
лог остался от того кликхауса, который ставил до этого из пакетов, и он не обновляется, в том и беда
попробовал от sudo -u clickhouse -g clickhouse, не помогло

Google

prll
20.06.2017
12:04:04
gdb -ex run --args clickhouse —config-file=.........

Alexander
20.06.2017
12:06:10
prll сорян, я кажется олень. —extract-from-config и key нафиг не нужный были. но это я из rc скриптов пытался выдернуть, чтобы понять. почему же не стартует
чот я жостко протупил :) это же не строка запуска, а получение ключа из конфига, по именам же понятно, а я баклан не ту строчку поди взял ?

prll
20.06.2017
12:12:51
А кому-нибудь еще хочется поднять clickhouse на arm железках? если да, то 32 или 64бит ?

Vladimir
20.06.2017
12:22:45

Sergey
20.06.2017
12:23:33

Vladimir
20.06.2017
12:24:52
В простом случаи go-carbon + carbonapi + grafana

Sergey
20.06.2017
12:32:38
Спс

Maksim
20.06.2017
13:08:46
Поставили c2.xlarge (4 ядра и 8 гигов ram). выполняется 3 запроса каждые 5 сек. по 100 млн read rows. 1 ядро съедает все. если запустить большой запрос на выборку в добавок то получится 2-3 ядра будут забиты. как держать нагрузку если 100 человек захотят получить данные статистики если уже при нескольких запросов такой сервер съедает. percent-steal 0%

Vladimir
20.06.2017
13:10:57
могу на ней даже регулярно собирать, если будет шанс что ваще КХ будет собираться

Maksim
20.06.2017
13:11:59

Vladimir
20.06.2017
13:12:01
ну или воткнуть диск от ноута

Maksim
20.06.2017
13:12:14
шлется запрос получаются агрегационные данные - строится график
у каждого зарегистрированного пользователя есть свои графики (дашборд)

Kirill
20.06.2017
13:15:17

Maksim
20.06.2017
13:16:08