
Алексей
08.02.2017
16:29:06
коллеги зачем сигнал на перечитвания конфига используется как сигнал для закрытия логов ?

Slach
08.02.2017
16:30:19
ну вообще в nginx вроде тоже самое ...разве нет???

Алексей
08.02.2017
16:31:39
как правило это перечитывание конфига
врятли это жестко закреплено какой то конкретной политикой просто внезапность

Google

Slach
08.02.2017
16:32:38
а точно
HUP это только reload configuration
http://nginx.org/ru/docs/control.html

Антон
08.02.2017
16:32:47
Господа. Поделитесь собраным jdbc driver

Алексей
08.02.2017
16:33:03
тяжело назать софт где это не так

Slach
08.02.2017
16:33:08
ну жосткой политики нет, но я думаю что лучше завести issue на github
просто в Метрике оно работает на bare metal
поэтому видимо там это не заметно ;)

Алексей
08.02.2017
16:34:36
:)

Dmitry
08.02.2017
16:39:02

Антон
08.02.2017
16:40:17
Разве там не сырцы
Пока с мавен не подружился

papa
08.02.2017
16:42:32
http://repo1.maven.org/maven2/ru/yandex/clickhouse/clickhouse-jdbc/0.1.16/

Виктор
08.02.2017
16:42:33
скачай с mavencentral
да =)

Google

Dmitry
08.02.2017
16:43:31

Антон
08.02.2017
16:45:02
?
/stat@combot

Combot
08.02.2017
16:56:37
combot.org/chat/-1001080295593

Олег
08.02.2017
19:58:48
Привет.
Можно ли при ALTER TABLE … MODIFY менять Enum'ы? В документации (раздел «Type conversion functions») про Enum'ы ни слова, хотя, казалось бы, добавить к существующему Enum'у парочку значений — нормальное желание обычного человека.

Alexey
08.02.2017
20:00:08

Anton
08.02.2017
20:03:16
А у меня еще вот такой вопрос. Есть у меня инсталляция clickhouse. Захотел я его перенести на другой сервер. Никаких Zookeeper сейчас нет. Как это сделать? Все же завести Zookeeper и сделать так, как описано в документации, или же поддерживается mysql-style, когда можно сделать дамп, потом репликаци, а потом и мастер переключить?

Alexey
08.02.2017
20:09:13
Можно остановить сервер и скопировать содержимое директории clickhouse. Аккуратно поставить права для файлов и запустить на новом сервере.
С помощью дампа тоже есть вариант.

Dmitry
08.02.2017
20:09:25

Anton
08.02.2017
20:09:44
А если без?

Dmitry
08.02.2017
20:10:49
Совсем без - если данные постоянно добавляються только через ЗК с репликацией
если данные не меняются или возможен небольшой даунтайм - рсинк хорший вариант.
Сделать рсинк с живого сервера. Остановить сервер, сделать ещё один рсинк, он уже будет сильно быстрее
Не забыть указать опцию, что бы он удалял несуществующие файлы

Anton
08.02.2017
20:13:05
То есть, сделать дамп или рсинк, включить zookeeper и дальше дописать остатки с помощью описанного в документации механизма?

Dmitry
08.02.2017
20:13:20
Если дамп или рсинк - ЗК не нужен

Alexey
08.02.2017
20:13:25

Dmitry
08.02.2017
20:14:00
ЗК - это конвертить таблицу в реплицируемую (в доке есть как) и просто поднять вторую машинкуи и создать там таблицу, она сама всё сделает

Anton
08.02.2017
20:14:37
Способ нравится, хотя не без прикола )

Vladislav
08.02.2017
20:16:24
как вариант, можно начать писать на 2 сервера, а в фоне перелить старые данные(sql dump или remote + insert from select). Старые данные по какому-нибудь timestamp вычленить ну или limit большой

Google

prll
08.02.2017
20:19:05

Anton
08.02.2017
20:21:42
Спасибо

Igor
09.02.2017
09:11:09
> @milovidov_an
С имеющимися настройками, farmHash ничем не лучше cityHash.
Алексей, добрый день!
Подскажи, пожалуйста, с чем связаны различия в реализациях CityHash:
https://github.com/google/cityhash/blob/master/src/city.cc#L379
https://github.com/yandex/ClickHouse/blob/master/contrib/libcityhash/src/city.cc#L214
Для строк, длина которых не превышает 64 байта, значения хеш-функций совпадают, но для более длинных строк хеш-и различаются.

f1yegor
09.02.2017
10:14:40
I got Mark Litwintschik to english channel, blog post should be published in a few days

Alexander
09.02.2017
10:19:38
Видимо, тут: http://tech.marksblogg.com
А как посмотреть размер несжатых данных, никто не знает? system.parts.bytes -- это сжатые

Vitaliy
09.02.2017
14:14:28

Alexander
09.02.2017
14:15:03
А размер данных без учета компрессии -- никак?

Vitaliy
09.02.2017
14:27:05
Можно узнать разжатый размер всей таблицы сделав в клиенте SELECT any(ignore(*)) FROM table и посмотреть финальный прогресс
Progress: 33.82 million rows, 39.82 GB
Только это может выполняться долго

Igor
09.02.2017
14:27:35
а any(ignore(*)) будет быстрее чем FORMAT Null?

Alexander
09.02.2017
14:28:33
а хотя бы приблизительно можно посчитать? Сэмплированием?

Vitaliy
09.02.2017
14:28:55
FORMAT применяется на клиенте, а клиенту по сети всегда приходят Native блоки

Igor
09.02.2017
14:29:48
понял, спасибо)

Alexander
09.02.2017
14:30:11
К примеру, в Вертике размер несжатых данных считается семплированием небольшого количества блоков по всем колонкам (в базе или таблице).
Ну нет, так нет

Vitaliy
09.02.2017
14:32:08
Ну можно например так: SELECT any(ignore(*)) FROM merge.hits SAMPLE 1 / 10000
Потом прогресс вручную домножить на 10000

Alexander
09.02.2017
14:33:42
Database merge doesn't exist.
Возможно, у нас не самая свежая версия

Vitaliy
09.02.2017
14:34:28
тут свою реальную db.table надо подставить

Alexander
09.02.2017
14:34:59
А по всем? )

Google

Alexander
09.02.2017
14:35:43
Ладно, мысль понятна, спасибо
Посчитал, до петабайта нам немного уже осталось )

Vitaliy
09.02.2017
14:53:36
Да, я тоже у себя 1400TB "насчитал" -)

Антон
09.02.2017
15:02:18

Pavel
09.02.2017
16:29:03
fastnetmon'ом например :)
правда, я не знаю когда моя ленивая заданица закончит плагин и замержит в основную ветку

Bob
09.02.2017
16:29:55
Вот этот запрос убивает сервер:
ClickHouse client version 1.1.54140.
Connecting to localhost:9000.
Connected to ClickHouse server version 1.1.54140.
:) select arrayReduce('groupUniqArray',['1','2','3']);
SELECT arrayReduce('groupUniqArray', ['1', '2', '3'])
Exception on client:
Code: 32. DB::Exception: Attempt to read after eof: while receiving packet from localhost:9000, ::1
Connecting to localhost:9000.
Code: 210. DB::NetException: Connection refused: (localhost:9000, ::1)

Vitaliy
09.02.2017
16:34:40

Bob
09.02.2017
16:35:36
Спасибо, поленился сходить на github. А по другому получить массив уникальных элементов в массиве можно?

Vitaliy
09.02.2017
16:36:45
SELECT DISTINCT не подходит?

Bob
09.02.2017
16:38:11
В принципи можно, добавив еще один уровень select... Спасибо)

Alex
09.02.2017
16:38:20
У вас изначально массив, массив массивов или столбец с массивами?

Bob
09.02.2017
16:42:43
Nested table, т.е. массив
И мне нужно, чтобы arrayJoin развернулся в уникальные элементы массива

Alex
09.02.2017
16:45:24
попробуйте так SELECT groupUniqArrayArray(nested.column) FROM table

Bob
09.02.2017
16:51:58
groupUniqArrayArray является агрегатной. И на выходе получается один большой массив. Не подошло.

Alex
09.02.2017
16:59:07
Не совсем тогда понял задачу. Если агрегировать не нужно, то просто groupUniqArray(nested.column)
а, понял
действительно, arrayReduce, когда он будет починен :)

f1yegor
09.02.2017
20:44:51
проголосуйте пожалуйста за https://news.ycombinator.com/item?id=13609870

Google

Roman
09.02.2017
20:50:15

Вася
09.02.2017
20:53:25
Если попросит регистрацию, ввести какие-нибудь символы и нажать "Create account".

f1yegor
09.02.2017
20:54:49
?
вы также можете помочь в твитторе https://twitter.com/marklit82/status/829766211110072321 & https://twitter.com/marklit82/status/829766613574512640

Igor
09.02.2017
21:37:10

f1yegor
09.02.2017
21:37:58
Ага, смотри выше

Igor
09.02.2017
21:38:06
ой, недочитал :)

f1yegor
09.02.2017
21:38:19
Ну или надо в другую категорию постить
Я на реддите не очень ориентируюсь
Если кто может перепостить в специализированную категорию - welcome


Alexey
09.02.2017
22:56:54
> @milovidov_an
С имеющимися настройками, farmHash ничем не лучше cityHash.
Алексей, добрый день!
Подскажи, пожалуйста, с чем связаны различия в реализациях CityHash:
https://github.com/google/cityhash/blob/master/src/city.cc#L379
https://github.com/yandex/ClickHouse/blob/master/contrib/libcityhash/src/city.cc#L214
Для строк, длина которых не превышает 64 байта, значения хеш-функций совпадают, но для более длинных строк хеш-и различаются.
У нас более старая версия CityHash. В документации к CityHash указано, что реализация может меняться при изменении версии, и результаты не предназначены для сохранения куда-либо - только для временного использования, например, в хэш-таблицах.
Но по факту так получилось, что во многих местах у нас (и, возможно, у внешних пользователей) уже сохранены значения старой версии CityHash, поэтому мы не можем её обновить. Также у нас используется CityHash128 в качестве чексумм для сжатых данных.
Что мы можем сделать - это добавить ещё одну функцию - cityHash64v2 - тогда у нас будет сразу обе реализации CityHash. Это стоит сделать, если будут преимущества в производительности или качестве.