@clickhouse_ru

Страница 35 из 723
Gleb
14.12.2016
14:43:25
на 64гб памяти можно три ноды запустить по 7гб хипа каждая

Yu
14.12.2016
14:43:43
Если один шард сделать на одной ноде, то будет green :)

Gleb
14.12.2016
14:43:47
да

nikoinlove
14.12.2016
14:44:26
двух же достаточно, зачем три

Google
Gleb
14.12.2016
14:44:43
ну да, на одной тачке сплит брейна не будет

тоже верно

так-то и одной хватит на 64гб.

рекомендуется запускать несколько нод на машинах там с 64гб+ памяти, например, 128 - две ноды по 31гб хипа

просто надо перенастроить под кластер без реплик, заодно и шардов больше влезет, кстати

Timur
14.12.2016
14:45:55
вот не хочется об этом думать ) на таких копеечных объемах данных придумывать там что-то с шардами, нодами и т.п.

Gleb
14.12.2016
14:46:02
абсолютно согласен

короче эластик классный поиск, но как база он ужасающ. ок, попробуем кликхаус тогда

Timur
14.12.2016
14:47:18
причем elastic у нас на селектах нормально себя показывает, в этом смысле претензий к нему не очень много просто неудобный в использовании и обслуживании

r
14.12.2016
14:47:40
как будете переливать из мускуля в кликхаус?

хранить там вечно? или подчищать перенесенные данные клх?

Gleb
14.12.2016
14:48:32
а кликхаус же хорош для хранения?

Timur
14.12.2016
14:48:33
мы с этим переездом в мускуль писать перестаем первичные данные в виде файлов собираем, их в clickhouse, а потом в s3

Google
Gleb
14.12.2016
14:49:05
а как кхе-кхе ETL из кликхауса в s3?

есть че-то готовое или тулзу писать?

у эластика круто сделаны снапшоты, кстати. вот этого не хватает в старых базах

кнопку нажал, индексы улетели на s3

Timur
14.12.2016
14:49:41
не не, не из clickhouse в s3. просто - логи в виде файлов и забекапить так чтобы если что поднять их можно было оттуда

Gleb
14.12.2016
14:50:03
запрос написал, из s3 индекс вернул

но там фишка в том, что в эластике нельзя данные держать, там объем ограничен

Igor
14.12.2016
14:56:47
Добрый вечер, мы подготовили вторую статью про ClickHouse для публикации на Хабре, мы еще прогоним статью через наших “орфограторов и пунктуаторов”, и попросим нашего филолога поправить русский язык, но техническую часть оформили: https://github.com/smi2/phpClickHouse/blob/master/doc/02_article_cluster.md Будем рады предварительной критике )

Gleb
14.12.2016
15:01:40
блин, в кликхаусе зукипер, вот это подстава

Igor
14.12.2016
15:02:01
%)))

Andrew
14.12.2016
15:02:09
блин, в кликхаусе зукипер, вот это подстава
А вам непременно кластер нужен?

Gleb
14.12.2016
15:02:31
не, думаю, одной машины хватит

Andrew
14.12.2016
15:02:50
Тогда зукипер нинужын

Dmitry
14.12.2016
15:02:52
если честно, хотелось бы альтернатив в виде consul и etcd

если уж припрет кластер делать

zk изящен, как седло на корове

Gleb
14.12.2016
15:03:18
^

вот-вот, мы для сервисов консул собираемся

Dmitry
14.12.2016
15:04:32
у кого чего есть

Google
Dmitry
14.12.2016
15:04:41
просто если есть консул впихивать еще zk как-то лишне

Gleb
14.12.2016
15:05:08
ну понятно почему зк, я так понял, внутри яндекса везде zk

так что это если только мы с вами запилим альтернативы

Anatoly
14.12.2016
15:06:32
если надо хадуп кому-то, всё равно зукипер ставить, например.

Gleb
14.12.2016
15:06:49
но мы ведь ставим кликхаус чтобы не надо было

Andrew
14.12.2016
15:07:06
Для твоей одиночной машины оно и не надо

Gleb
14.12.2016
15:07:18
а как мониторить кликхаус? есть для prometheus чо?

о, неплохо

Andrew
14.12.2016
15:07:51
А в качестве хранения clickhouse - вполне себе ок. Я пробовал заливать суточный срез netflow - результаты более чем устроили.

Dmitry
14.12.2016
15:09:16
ну если кому-то нужен zk, то можно zk

а если zk нет, то нафиг он

?

Roman
14.12.2016
15:10:37
поидее без zk не будет работать дедупликация вставляемых данных. когда послал пачку данных, упал в процессе, послал снова

Dmitry
14.12.2016
15:13:05
что CH делает с ZK?

key-value или что-то сложнее?

Alexey
14.12.2016
15:31:21
Вообще, в Яндексе не только zk. Есть и решения по-лучше но они не в оупесорсе пока. А для своих целей zk в кликхаусе вполне норм. У вас с ним какие-то проблемы?

Dmitry
14.12.2016
15:36:02
так какие цели у zk?

Anatoly
14.12.2016
15:36:45
так какие цели у zk?
консенсус в кластере же.

какие ещё могут быть

Google
Валерка :)
14.12.2016
15:38:33
у нас еластик, щас правда еще разработка, но с имитацией реальной нагрузки. база с кликами, каждый клик - какие-то распарсенные данные + неиндексируемые хедеры, в сумме примерно 1 клик = 1кб, судя по объемам на винте. щас база весит 2 тб, реальная нагрузка будет 50-100\с, но для тестов делали и 2к рпс. 3 сервака под это дело, с репликацией и шардингом, пока никакой боли не видно особой

мне бы тоже хотелось узнать про боль до выхода в прод)

Fike
14.12.2016
15:41:27
у нас дефолт. но там хип по-моему больше, в районе 40-50, не помню точно
за 32 гб JVM начинает декомпрессить указатели, если вы этим специально не занимались, то это может наоборот ухудшить вам производительность. Точных данных, конечно, ни у кого нет, но rule of thumb за 32 не выходить

вы маппинги индексам делаете?

Timur
14.12.2016
15:47:04
за 32 гб JVM начинает декомпрессить указатели, если вы этим специально не занимались, то это может наоборот ухудшить вам производительность. Точных данных, конечно, ни у кого нет, но rule of thumb за 32 не выходить
я там спутал(сейчас проверил). 57гб - это сколько сейчас elastic жрет памяти cat /proc/11211/status | grep VmSize VmSize: 56113512 kB хип там другой: -Xmx12Gb я повторюсь - скорее всего мы его плохо готовим. на селектах он проблем не вызывает, проблемы иногда возникают в обслуживании (бывало такое что он не поднимался после рестарта, или поднимался минут 20). я уверен что подкрутив параметры или как-то разнеся на ноды это может решиться. просто по впечатлениям которые получили - работать с ним сложно

маппинги используем

Fike
14.12.2016
15:47:12
короче пора elasticsearch_ru заводить

Timur
14.12.2016
15:48:27
ну и основное что напрягает - инструменты не очень удобные (когда в коде - еще ничего, но в отладке - мучаемся). запрос писать в json - то еще развлечение

Валерка :)
14.12.2016
15:49:50
единственно что могу пока конкретное сказать про обслуживание - переезд 1тб базы с 2.4 до 5.1 проходил около 12 часов (желтый статус)

Алексей
14.12.2016
15:49:56
Fike
14.12.2016
15:49:56
Если вам просто собирать логи - попробуйте graylog, это обертка над elastic, которая сделает бОльшую часть за вас и позволит тупо скидывать логи в AMQP, особо не беспокоясь за время доставки. Я могу какие-то еще советы дать в личной беседе позже, но я на самом деле только теоретический сварщик; т.к. тут еще пара человек отписалась, возможно, имеет смысл действительно создать конфу.

Fike
14.12.2016
15:54:22
@elasticsearch_ru переезжаем

r
14.12.2016
16:16:53
Никто с таким не сталкивался?

График Cpu utilization

http://i.imgur.com/g4edUBN.png

В CLH 6 таблиц

в две из них идет запись примерно 1600 запросов/сек (пиковые значения)

все таблицы - движок MergeTree

где непонятно? поясню

Google
Igor
14.12.2016
16:28:06
в две из них идет запись примерно 1600 запросов/сек (пиковые значения)
ваще вроде бы рекомендовали поменьше запросов в секунду

просто бóльшими пачками

> Производительность при вставке данных. > Данные рекомендуется вставлять пачками не менее 1000 строк или не более одного запроса в секунду.

может, поэтому так

r
14.12.2016
16:30:56
попробуем, спасибо!

Igor
14.12.2016
17:16:57
кстати нет, походу, это тот же чел из cloudflare

https://github.com/vavrusa

вон драйвер для ORM питоньей делает

Kotbegemot
14.12.2016
17:43:45
кто знает я еще успею поговорить ?

f1yegor
14.12.2016
17:57:04
записей немного, 300-400 документов в секунду
на таких объемах явно делаете что-то не так. сколько всего документов в индексе и размер базы?

Gleb
14.12.2016
18:06:06
у нас очень много индексов по некоторым причинам

возможно, проблема в этом

"active_primary_shards" : 6051, "active_shards" : 12042,

nikoinlove
14.12.2016
18:15:58
заставили?

prll
14.12.2016
18:16:54
Пока добровольно.

Страница 35 из 723