
dmn
21.12.2017
13:35:51
Ага..

Alex
21.12.2017
13:36:05

Aliaksandr
21.12.2017
13:36:22
с селектами похожая проблема - на сервере, куда пришел селект, идет дополнительная нагрукза для финальной агрегации и сортировки данных

Alex
21.12.2017
13:36:26
@vladimirmyuge , или нужен просто jar?

Google

Vladimir
21.12.2017
13:36:34

dmn
21.12.2017
13:36:35
А multiregion cluster при таких вводных адекватно собирается ?

Alex
21.12.2017
13:37:22

dmn
21.12.2017
13:37:28
Нужно ha, мультирегиональность и возможность оперативно докидывать ноды когда кончается место

Alex
21.12.2017
13:38:26

Vladimir
21.12.2017
13:38:35
Я просто не умею компилировать (

Kirill
21.12.2017
13:39:05

dmn
21.12.2017
13:39:54
Ну это облака, там проблем нет. Ну, пока не сломалось - нет :(
А ch умеет чинить один регион данными из второго ?
На случай если данные побились
И умеет ли он affin'ить шарды по каким либо условиям ?

Google

Kirill
21.12.2017
13:47:01
КХ всё равно на регионы, это вы все сами настраиваете, он просто видит сервера в кластере и шарды, если на сервере чего-то не хватает он пытается вытащить куски данных с других (это если совсем на пальцах).
https://clickhouse.yandex/docs/en/single/#distributed

dmn
21.12.2017
13:52:43
Оке, спасибо большое, пойду пробовать

?
21.12.2017
13:57:08
хмм. вот у меня получилось клиентом подключиться и он даже исполняет SELECT-ы тестовые, но когда пробую все-таки закачать данные, через пару секунд размышления
дает такое
Code: 210. DB::NetException: Connection reset by peer while writing to socket (172.17.0.2:9000)
это уже не преодолеть? )

Aliaksandr
21.12.2017
13:59:22

Kirill
21.12.2017
14:00:36
Понятно

dmn
21.12.2017
14:01:08
А количество свободного места она не учитывает ?

Aliaksandr
21.12.2017
14:01:13
нет

dmn
21.12.2017
14:01:34
Как тогда быть при добавлении новой ноды?

Aliaksandr
21.12.2017
14:02:23
хотя если на шарде закончится свободное место, то она начнет возвращать ошибки при попытке записать туда данные. chproxy в таком случае снизит нагрузку на эту шарду, перекинув запросы на рабочие шарды :)

dmn
21.12.2017
14:03:48
Проксей можно ставить несколько ? Они не поссорятся друг с другом?

Aliaksandr
21.12.2017
14:05:00
Как тогда быть при добавлении новой ноды?
мы в гугл клауде просто расширяем диск на шарде при нехватке места )
новые ноды добавляем, когда старые перестают справляться с нагрузкой. Старые данные мы периодически архивируем и удаляем с шард, поэтому с течением времени объем данных на каждой шарде выравнивается.

dmn
21.12.2017
14:05:48
О, а на каких машинах вы там все это гоняете ?

Aliaksandr
21.12.2017
14:06:08
на 16-ядерных с 104гб озу

dmn
21.12.2017
14:06:31
Thx )
Диски ssd же?

Aliaksandr
21.12.2017
14:07:14
нет, hdd )
они дешевле

dmn
21.12.2017
14:07:26
Ээ..

Google

dmn
21.12.2017
14:07:33
И медленнее

Aliaksandr
21.12.2017
14:07:52
приходится чем-то жертвовать

Stas
21.12.2017
14:09:02
Давайте я к вам со своей балалайкой зайду - у нас прирост от SSD менее 12% тоже на hdd сидим

dmn
21.12.2017
14:09:36

Aliaksandr
21.12.2017
14:09:55
при использовании hdd в гугл клауде пока столкнулись с одной проблемой - ограниченная скорость записи/чтения на один комп - 120/180 мб/с соответственно. Без разницы, сколько туда замаунтить hdd - все равно будет такое ограничение. Мы его обходим добавлением дополнительных шард )

Stas
21.12.2017
14:10:33

Aliaksandr
21.12.2017
14:10:53
в сентябре они обещали поднять это ограничение до 400мб/с, но пока еще не подняли

Yury
21.12.2017
14:25:11
Всем привет!
Хотим провернуть такую операцию. Есть шардированная таблица. Хотим сделать из неё обычную. Т.е. хотим сделать DETACH на всех серверах. Перенести все файлы со всех серверов на один сервер. Сделать ATTACH. Получить на тех же данных нешардированную таблицу.
Так получится?
Спасибо.

Kirill
21.12.2017
14:28:13
Получится если схемы одинаковые

Tolya
21.12.2017
14:32:07
Добрый день!
На недавнем митапе обещали, что в первом квартале 18го года появятся update/delete. Можете подсказать примерную дату релиза?

dmn
21.12.2017
14:40:05
/stat@combot

Combot
21.12.2017
14:40:05
combot.org/chat/-1001080295593

?
21.12.2017
15:21:31
короче, 30Мб льются нормально в КХ на докере, через клиента в докере, а когда пихаю 400Мб - выпадает с ошибкой
Code: 210. DB::NetException: Connection reset by peer while writing to socket (172.17.0.2:9000)
это может быть докера проблема, моей сети, КХ или всего вместе? :)

Ilya
21.12.2017
15:23:52

?
21.12.2017
15:24:53
щас попробую ) спс

Ilya
21.12.2017
15:25:05

?
21.12.2017
15:25:17
а как глянуть?

Ilya
21.12.2017
15:25:48

?
21.12.2017
15:27:11
а там вообще пусто
чудеса, ничего не менял, но закачалось в конце концов.
самые пугающие ошибки вот такие – фантомные.

Google

Alexey
21.12.2017
16:12:44
а вы не гуглили ошибку? https://github.com/yandex/ClickHouse/issues/434
там у чувака памяти не хватало
еррор_лог настройте, без него никуда

?
21.12.2017
16:14:50
ага, вижу, ну там 500мб всего, не думал что это на современной машине мб проблемой. спасибо, странно что ошибки по дефолту не включены, попробую врубить

Alexey
21.12.2017
16:17:52
ну вы же в докере запускаете?

?
21.12.2017
16:19:02
да

Alexey
21.12.2017
16:20:03
лимит по памяти задаете может быть?

?
21.12.2017
16:22:37
нет, вроде бы, я их рекомендуемыми параметрами пользуюсь
https://hub.docker.com/r/yandex/clickhouse-server/
хотя там у самого докера есть настройки по памяти, попробую их тоже подергать, спасибо

Aliaksandr
21.12.2017
16:47:11
потом гляньте в select * from system.settings where name like '%timeout%' и попытайтесь найти похожее значение )
если ошибка возникает через 10 секунд, то может быть виноват keep_alive_timeout - он по умолчанию 10 секунд

GithubReleases
21.12.2017
17:31:12
https://github.com/yandex/ClickHouse/releases/v1.1.54327-stable was tagged

Slach
21.12.2017
17:34:46
Докер образы когда будут выкладваться?

Alexey
21.12.2017
17:35:23
Это патч релиз к версии 1.1.54318. Никаких новых фич нет.
Исправлена проблема с возможным race condition при репликации, которая может приводить к потере данных.
Проблеме подвержены версии 1.1.54310 и 1.1.54318. Если вы их используете и у вас есть Replicated таблицы, то обновление обязательно.
Понять, что эта проблема существует, можно по сообщениям в логе Warning вида "Part ... from own log doesn't exist." Даже если таких сообщений нет, проблема всё-равно актуальна.

Kirill
21.12.2017
17:52:29
Отлично что до рождественских каникул патч пришел )

Alexey
21.12.2017
17:58:16

Slach
21.12.2017
18:10:08
Спасибо, какие же вы все таки молодцы

Google

Slach
21.12.2017
18:11:03
сейчас попробую zetcd на последнем релизе собрать
кстати оно поднимается
и даже данные вставляются
но если повторно вставить одни и теже данные то почему то падает clickhouse в кишках zookeper клиента =(

Kirill
21.12.2017
18:31:44

No name
21.12.2017
18:36:14
Подскажите, как вы реализуете алгоритм по складыванию пачками? Какие приемы используете? Я пишу на php. Хотел бы услышать совета комъюнити.
Выдержка из документации: "Данные рекомендуется вставлять пачками не менее 1000 строк или не более одного запроса в секунду."

Kirill
21.12.2017
18:40:20
если пишете в кафку, то, возможно, вам подойдет https://clickhouse.yandex/docs/en/table_engines/kafka.html

Oleksandr
21.12.2017
18:42:59
кстати, а нет, случайно, готовых скриптов, который для ваших конкретных КХ, сети и природы данных определяют идеальный предел для вставки / чтения ?

No name
21.12.2017
19:02:05
только в этом у меня сейчас проблема. Подскажите демона (или алгоритм), чтобы дописывал статистику раз в 2-3 секунды

Ilya
21.12.2017
19:04:55

Timofey
21.12.2017
19:05:03
мы пишем в локальный fluentd, который уже дальше накопленный буфер скидывает в КХ с нужным интервалом

Ilya
21.12.2017
19:05:09
может поможет

No name
21.12.2017
19:07:01
есть еще вариант покурить buffer таблицы
читал, но там написано
"Заметим, что даже для таблиц типа Buffer не имеет смысла вставлять данные по одной строке, так как таким образом будет достигнута скорость всего лишь в несколько тысяч строк в секунду, тогда как при вставке более крупными блоками, достижимо более миллиона строк в секунду (смотрите раздел «Производительность»)."
то есть смысла использовать buffer нет, если я не буду вставлять пачками

Ilya
21.12.2017
19:08:40

Kirill
21.12.2017
20:00:02
Еще вот такая штука есть https://github.com/nikepan/clickhouse-bulk

No name
21.12.2017
20:02:14