@clickhouse_ru

Страница 174 из 723
Maksim
20.06.2017
09:15:16


Pavel
20.06.2017
09:19:49
@milovidov_an не хватает тестов физической железки в ряду =(

И контейнеров! :)

Maksim
20.06.2017
09:20:31
какой instance предпочтитетльнее для работы КХ?

Google
Andrey
20.06.2017
09:23:53
железный :)

Maksim
20.06.2017
09:24:02
из списка который есть

Ivan
20.06.2017
09:30:56
это очень мало

надо апгрейдить виртуалку

она съела все кредиты

почитай что это такое

Maksim
20.06.2017
09:31:16
да я почитал

я создаю c4.xlarge инстанс

думаю он спасет)

и еще одна проблема мы используем gp2 диск на 100 гигов. а это всего 300 IOPS что может тормозить дополнительно

Ivan
20.06.2017
09:32:31
кликхаус создан чтобы работать на не очень быстрых дисках

Maksim
20.06.2017
09:35:41
ничего себе не на быстрых. по 5 тыс IOPS

Pavel
20.06.2017
09:37:12
обычная сата - это от силы 200-300 IOPS

Google
Pavel
20.06.2017
09:37:18
и клихаусу вполне хватает

Maksim
20.06.2017
09:38:04
в общем наша ошибка была в том что мы взяли T2 инстанс под кх. он съедал кредиты цпу мигом и потом тормозил

Александр
20.06.2017
09:39:58
Кто-то может подсказать как можно в КХ просуммировать по следующей логике. Есть вот такой результат https://img.facedsid.ru/6e9wq.jpg Суммировать нужно все, что между строками у которых skip = 1 :) При этом еще как то умудриться выдернуть первый eventTime который лежит в промежутках между skip = 1 и собственно на выходе должно получиться что-то вроде: 2016-11-09 18:43:08 - 29 2016-11-09 19:52:08 - 1318 и т.д.

Суммировать нужно колонку duration )

Ivan
20.06.2017
09:50:06
Maksim
20.06.2017
09:50:31
ну т2 надо понимать зачем использовать, так то это отличная штука
да согласен переборщили отдав такой инстанс на кх

Vladimir
20.06.2017
09:53:24
@maksim_melnichuk я бы сказал, что это хорошая идея (и по бюджету и в целом) вынести DWH за пределы Amazon'а. Под DWH я понимаю все что хранить данные которые нужны для анализа вашими аналитиками, а не реально для работы системы

вынести это куда-нибудь в хецнер - будет скорее всего ощутимо дешевле

и при этом проблем с гипервизором не будет

Pavel
20.06.2017
09:54:04
online.net люто рекомендую =)

Maksim
20.06.2017
09:54:33
вынести это куда-нибудь в хецнер - будет скорее всего ощутимо дешевле
привет) в ближайшие месяцы мы планируем с концам уехат на хецнер, т.к. посчитали что это в 2 раза выгоднее по цене и полный контроль

Vladimir
20.06.2017
09:54:33
ну там варианты уже ) не таких дорогих хостингов прям много

Pavel
20.06.2017
09:54:52
полный контроль... я бы НЕ РЕКОМЕНДОВАЛ если дорожите своим бизнесом %)

Vladimir
20.06.2017
09:55:15
полный контроль... я бы НЕ РЕКОМЕНДОВАЛ если дорожите своим бизнесом %)
ну на самом деле с хецнером не так прям чтоб много проблем пока ты мелкий-средний

особенно если все в белую делать

просто надо иметь в виду что хецнер очень дешевый и в случаи чего виноват клиент по их мнению

Pavel
20.06.2017
09:55:53
хецнер это не для mission critical. точка =)

там как повезет, повезет с железкой - будет все ок долгие годы

Vladimir
20.06.2017
09:56:27
хецнер это не для mission critical. точка =)
им сейчас можно доплатить чтобы железо было не БУ )

разово на каждую замену каждой железки

Google
Pavel
20.06.2017
09:56:35
увы, это не решает

траст ми! айм энджинер!

ну точнее я 7 лет с ними работал с несколькими тысячами машин в саб-аренде

Maksim
20.06.2017
09:57:29
Pavel
20.06.2017
09:57:37
отвественность? о чем вы?

железка в месяц стоит дешевле чем ужин в ресторане

Vladimir
20.06.2017
09:58:18
хетцнер используйте

Roman
20.06.2017
09:59:33
сейчас насоветуют)

Vladimir
20.06.2017
10:05:07
сейчас насоветуют)
Причем тут насоветуют? Конечно свое железо это оптимальное решение.

Pavel
20.06.2017
10:05:53
свое в своем дц со своим техником - маст, если mission critical :)

а иначе будут постоянно постмортемы в стиле "ну у нас облако упало, мы не виноватые такие"

Vladimir
20.06.2017
10:08:40
@pavel_odintsov вопрос должен быть исходя из затрат и выгоды

если затраты на свой ДЦ превышают потери от падения - то как бы и ладно, пусть падает

ровно поэтому и хецнер ок, если ты стартап, например

потому что выгода превышает риск

Alex
20.06.2017
10:16:04
много кто советует хетцнер, но там же есть ограничения по траффику. аще не комильфо.

Pavel
20.06.2017
10:18:45
они наружу же, а не во внутренней сети

внутри можно ваще свич свой попросить и в стойку влепить :)

Sergey
20.06.2017
10:19:38
А кто-нибудь пробовал clickhouse на RPi

Google
Sergey
20.06.2017
10:19:38
?

Alex
20.06.2017
10:20:09
внутри можно ваще свич свой попросить и в стойку влепить :)
не вариант для тех, у кого свои ноды по локациям распределены

Pavel
20.06.2017
10:23:13
увы тогда

Vladislav
20.06.2017
10:44:28
подскажите, какой наиболее оптимальный порядок полей в первичном ключе например, есть колонки в PK дата, id сайта, id страны причем стран гораздо больше, чем сайтов какая комбинация выгоднее: (date, id сайта, id страны) или (date, id страны, id сайта)?

Andrey
20.06.2017
10:54:28
id сайта, id страны

А дату какой смысл тащить туда? Она и так PK

Vladislav
20.06.2017
10:59:54
у меня просто ReplacingMergeTree и дата нужна для замены ок, спасибо т.е. более вариативный столбец ставим после менее вариантивного

Andrey
20.06.2017
11:08:01
Да, верно.

papa
20.06.2017
11:22:52
подскажите, какой наиболее оптимальный порядок полей в первичном ключе например, есть колонки в PK дата, id сайта, id страны причем стран гораздо больше, чем сайтов какая комбинация выгоднее: (date, id сайта, id страны) или (date, id страны, id сайта)?
зависит от того, какие будут запросы. если они всегда включают фильтр по id сайта и диапазону дат, то лучше (счетчик, дата), если нет, то могут быть разные варианты.

Dmitry
20.06.2017
11:23:58
подскажите пожалуйста, возможно ли настриоть хранение данных на двух дисковых массивах одного сервера? к примеру: данные за последний месяц на первый(SSD), остальные данные на второй(SATA).

Alexander
20.06.2017
11:35:16
а у КХ есть какой нибудь флаг дебага для запуска из консоли? а то > clickhouse —extract-from-config —config-file=/etc/clickhouse-server/config.xml —key=path > /work1/clickhouse/ и все, процесс не поднимается

prll
20.06.2017
11:41:56
А кто-нибудь пробовал clickhouse на RPi
RPI есть 3 разные версии, 2 их них 32 бит - на них никак. версия 3 - 64 бит, на ней запустить можно. Но в ней только 1g ram .

prll
20.06.2017
11:43:09
если хочется с такими железками поиграть - лучше odroid c2 , там и памяти 2g и процессор побыстрее

и еще особенность - clickhouse сейчас не собрать на железке с 2gram, а своп изнасилует sdкарту и если и соберется - очень долго

Alexander
20.06.2017
11:47:57
так, попырил сырцы, все просто, —stacktrace —log-level debug
хотя, один чорд понятнее не стало, почему не взлетает > $ clickhouse —extract-from-config —config-file=/etc/clickhouse-server/config.xml —key=path —stacktrace —log-level debug > 2017-06-20 07:52:20.029 <Warning> ConfigProcessor: Include not found: clickhouse_compression > /work1/clickhouse/

prll
20.06.2017
11:55:10
лог создается?

Alexander
20.06.2017
11:58:10
лог создается?
лог остался от того кликхауса, который ставил до этого из пакетов, и он не обновляется, в том и беда

попробовал от sudo -u clickhouse -g clickhouse, не помогло

Google
prll
20.06.2017
12:04:04
gdb -ex run --args clickhouse —config-file=.........

Alexander
20.06.2017
12:06:10
prll сорян, я кажется олень. —extract-from-config и key нафиг не нужный были. но это я из rc скриптов пытался выдернуть, чтобы понять. почему же не стартует

чот я жостко протупил :) это же не строка запуска, а получение ключа из конфига, по именам же понятно, а я баклан не ту строчку поди взял ?

prll
20.06.2017
12:12:51
А кому-нибудь еще хочется поднять clickhouse на arm железках? если да, то 32 или 64бит ?

Vladimir
20.06.2017
12:22:45
Я про 3-ю, но понятно. Просто ищу timeseries бд на нее.
Я б посоветовал брать виртуалки с армв8 и собирать на них.

Vladimir
20.06.2017
12:24:52
Я про 3-ю, но понятно. Просто ищу timeseries бд на нее.
Я б посоветовал взять графит на самом деле, кх кажется оверкилл

В простом случаи go-carbon + carbonapi + grafana

Sergey
20.06.2017
12:32:38
Спс

Maksim
20.06.2017
13:08:46
Поставили c2.xlarge (4 ядра и 8 гигов ram). выполняется 3 запроса каждые 5 сек. по 100 млн read rows. 1 ядро съедает все. если запустить большой запрос на выборку в добавок то получится 2-3 ядра будут забиты. как держать нагрузку если 100 человек захотят получить данные статистики если уже при нескольких запросов такой сервер съедает. percent-steal 0%

Maksim
20.06.2017
13:11:59
а вы что конкретно делаете и для какой аудитории? )
ну теже графики построить на основе статистики в кх

Vladimir
20.06.2017
13:12:01
ну или воткнуть диск от ноута

ну теже графики построить на основе статистики в кх
а зачем там 100 человек одновременно?

Maksim
20.06.2017
13:12:14
шлется запрос получаются агрегационные данные - строится график

у каждого зарегистрированного пользователя есть свои графики (дашборд)

Maksim
20.06.2017
13:16:08
возьмите уже с них по 1 евро и арендуйте сервер ;)
и так выходит 200$ в месяц этот кх сервер который не держит даже 10 запросов

Страница 174 из 723