
Gleb
14.12.2016
14:43:25
на 64гб памяти можно три ноды запустить по 7гб хипа каждая

Yu
14.12.2016
14:43:43
Если один шард сделать на одной ноде, то будет green :)

Gleb
14.12.2016
14:43:47
да

nikoinlove
14.12.2016
14:44:26
двух же достаточно, зачем три

Google

Gleb
14.12.2016
14:44:43
ну да, на одной тачке сплит брейна не будет
тоже верно
так-то и одной хватит на 64гб.
рекомендуется запускать несколько нод на машинах там с 64гб+ памяти, например, 128 - две ноды по 31гб хипа
просто надо перенастроить под кластер без реплик, заодно и шардов больше влезет, кстати

Timur
14.12.2016
14:45:55
вот не хочется об этом думать ) на таких копеечных объемах данных придумывать там что-то с шардами, нодами и т.п.

Gleb
14.12.2016
14:46:02
абсолютно согласен
короче эластик классный поиск, но как база он ужасающ. ок, попробуем кликхаус тогда

Timur
14.12.2016
14:47:18
причем elastic у нас на селектах нормально себя показывает, в этом смысле претензий к нему не очень много
просто неудобный в использовании и обслуживании

r
14.12.2016
14:47:40
как будете переливать из мускуля в кликхаус?
хранить там вечно? или подчищать перенесенные данные клх?

Gleb
14.12.2016
14:48:32
а кликхаус же хорош для хранения?

Timur
14.12.2016
14:48:33
мы с этим переездом в мускуль писать перестаем
первичные данные в виде файлов собираем, их в clickhouse, а потом в s3

Google

Gleb
14.12.2016
14:49:05
а как кхе-кхе ETL из кликхауса в s3?
есть че-то готовое или тулзу писать?
у эластика круто сделаны снапшоты, кстати. вот этого не хватает в старых базах
кнопку нажал, индексы улетели на s3

Timur
14.12.2016
14:49:41
не не, не из clickhouse в s3. просто - логи в виде файлов и забекапить так чтобы если что поднять их можно было оттуда

Gleb
14.12.2016
14:50:03
запрос написал, из s3 индекс вернул
но там фишка в том, что в эластике нельзя данные держать, там объем ограничен

Igor
14.12.2016
14:56:47
Добрый вечер, мы подготовили вторую статью про ClickHouse для публикации на Хабре, мы еще прогоним статью через наших “орфограторов и пунктуаторов”, и попросим нашего филолога поправить русский язык, но техническую часть оформили:
https://github.com/smi2/phpClickHouse/blob/master/doc/02_article_cluster.md
Будем рады предварительной критике )

Gleb
14.12.2016
15:01:40
блин, в кликхаусе зукипер, вот это подстава

Igor
14.12.2016
15:02:01
%)))

Anatoly
14.12.2016
15:02:08

Andrew
14.12.2016
15:02:09

Gleb
14.12.2016
15:02:31
не, думаю, одной машины хватит

Andrew
14.12.2016
15:02:50
Тогда зукипер нинужын

Dmitry
14.12.2016
15:02:52
если честно, хотелось бы альтернатив в виде consul и etcd
если уж припрет кластер делать
zk изящен, как седло на корове

Gleb
14.12.2016
15:03:18
^
вот-вот, мы для сервисов консул собираемся

Dmitry
14.12.2016
15:04:32
у кого чего есть

Google

Dmitry
14.12.2016
15:04:41
просто если есть консул впихивать еще zk как-то лишне

Gleb
14.12.2016
15:05:08
ну понятно почему зк, я так понял, внутри яндекса везде zk
так что это если только мы с вами запилим альтернативы

Anatoly
14.12.2016
15:06:32
если надо хадуп кому-то, всё равно зукипер ставить, например.

Gleb
14.12.2016
15:06:49
но мы ведь ставим кликхаус чтобы не надо было

Andrew
14.12.2016
15:07:06
Для твоей одиночной машины оно и не надо

Gleb
14.12.2016
15:07:18
а как мониторить кликхаус? есть для prometheus чо?
о, неплохо

Andrew
14.12.2016
15:07:51
А в качестве хранения clickhouse - вполне себе ок. Я пробовал заливать суточный срез netflow - результаты более чем устроили.

Dmitry
14.12.2016
15:09:16
ну если кому-то нужен zk, то можно zk
а если zk нет, то нафиг он
?

Roman
14.12.2016
15:10:37
поидее без zk не будет работать дедупликация вставляемых данных. когда послал пачку данных, упал в процессе, послал снова

Dmitry
14.12.2016
15:13:05
что CH делает с ZK?
key-value или что-то сложнее?

Alexey
14.12.2016
15:31:21
Вообще, в Яндексе не только zk. Есть и решения по-лучше но они не в оупесорсе пока.
А для своих целей zk в кликхаусе вполне норм. У вас с ним какие-то проблемы?

Dmitry
14.12.2016
15:36:02
так какие цели у zk?

Anatoly
14.12.2016
15:36:45
какие ещё могут быть

Gleb
14.12.2016
15:38:26

Google

Валерка :)
14.12.2016
15:38:33
у нас еластик, щас правда еще разработка, но с имитацией реальной нагрузки. база с кликами, каждый клик - какие-то распарсенные данные + неиндексируемые хедеры, в сумме примерно 1 клик = 1кб, судя по объемам на винте. щас база весит 2 тб, реальная нагрузка будет 50-100\с, но для тестов делали и 2к рпс. 3 сервака под это дело, с репликацией и шардингом, пока никакой боли не видно особой
мне бы тоже хотелось узнать про боль до выхода в прод)

Fike
14.12.2016
15:41:27
вы маппинги индексам делаете?

Timur
14.12.2016
15:47:04
маппинги используем

Fike
14.12.2016
15:47:12
короче пора elasticsearch_ru заводить

Timur
14.12.2016
15:48:27
ну и основное что напрягает - инструменты не очень удобные (когда в коде - еще ничего, но в отладке - мучаемся). запрос писать в json - то еще развлечение

Валерка :)
14.12.2016
15:49:50
единственно что могу пока конкретное сказать про обслуживание - переезд 1тб базы с 2.4 до 5.1 проходил около 12 часов (желтый статус)

Алексей
14.12.2016
15:49:56

Fike
14.12.2016
15:49:56
Если вам просто собирать логи - попробуйте graylog, это обертка над elastic, которая сделает бОльшую часть за вас и позволит тупо скидывать логи в AMQP, особо не беспокоясь за время доставки. Я могу какие-то еще советы дать в личной беседе позже, но я на самом деле только теоретический сварщик; т.к. тут еще пара человек отписалась, возможно, имеет смысл действительно создать конфу.

Eugene
14.12.2016
15:51:15

Fike
14.12.2016
15:54:22
@elasticsearch_ru переезжаем

r
14.12.2016
16:16:53
Никто с таким не сталкивался?
График Cpu utilization
http://i.imgur.com/g4edUBN.png
В CLH 6 таблиц
в две из них идет запись примерно 1600 запросов/сек (пиковые значения)
все таблицы - движок MergeTree
где непонятно? поясню

Google

Igor
14.12.2016
16:28:06
просто бóльшими пачками
> Производительность при вставке данных.
> Данные рекомендуется вставлять пачками не менее 1000 строк или не более одного запроса в секунду.
может, поэтому так

r
14.12.2016
16:30:56
попробуем, спасибо!

Igor
14.12.2016
17:16:57
кстати нет, походу, это тот же чел из cloudflare
https://github.com/vavrusa
вон драйвер для ORM питоньей делает

Kotbegemot
14.12.2016
17:43:45
кто знает я еще успею поговорить ?

f1yegor
14.12.2016
17:57:04

Gleb
14.12.2016
18:06:06
у нас очень много индексов по некоторым причинам
возможно, проблема в этом
"active_primary_shards" : 6051,
"active_shards" : 12042,

nikoinlove
14.12.2016
18:15:58
заставили?

prll
14.12.2016
18:16:54
Пока добровольно.