
Гаврилов
06.04.2018
16:00:45
мы заливаем свежие данные почти сразу
но при обновлении у нас меняются логики вычисления полей
добавляются столбцы

Daniel
06.04.2018
16:04:22
В свете последних новостей (блокировка Телеграма) вот годный VPN-чик полностью не за деньги, есть под все платформы.
https://psiphon.ca/ru/download.html
Но я бы socks - сервак поднял)

Google

Гаврилов
06.04.2018
16:07:44
лучше бы ссылку на программу эмиграции)

Daniel
06.04.2018
16:09:18
Почитайте про Blue card
И про условия эмиграции в Канаду - довольно несложные

Гаврилов
06.04.2018
16:09:59
в канаду усложнили
года 2-3 назад

Nikita
06.04.2018
16:21:55

Гаврилов
06.04.2018
16:24:08
вроде ничего с 2015 года не поменялось
нужен контракт с работодателем
но с контрактом и в сша можно ехать

Nikita
06.04.2018
16:29:24
Да может перепутал я чего
В Германию ок, blue card несложно получить

Гаврилов
06.04.2018
16:32:50
blue card тоже надо контракт
с контрактом можно почти в любую страну

Google

Nikita
06.04.2018
16:35:09
blue card больше флексибл, привязка к работодателю минимальная, сроки маленькие, никаких проверок положения дел с безработицей или чего-то типа

Vsevolod
06.04.2018
16:40:29
ну вот я ищу себе пограммистов в UK
даже визу сделать готовы тут за сотни нефти
blue card, бесспорно, лучше

Nikita
06.04.2018
16:41:22

Vsevolod
06.04.2018
16:41:36
но фашисты есть фашисты - английский все-таки тут родной
да, все плохо

Nikita
06.04.2018
16:42:02
Где именно к UK так? И какого рода погроммисты?

Vsevolod
06.04.2018
16:46:09
London: C, Lua, возможно, Perl
работать над Rspamd

Stas
06.04.2018
16:48:46

Vsevolod
06.04.2018
16:50:02
спасибо за ценные советы, но меня и здесь неплохо кормят

Vladimir
06.04.2018
17:14:07

Kirill
06.04.2018
18:42:24

Nikolai
06.04.2018
18:57:18

Kirill
06.04.2018
19:15:39

Ilya
06.04.2018
19:42:53
Подскажите, пожалуйста, как в jdbc запихать array в CH через подстановку :value?

Sergey
07.04.2018
07:44:57
Именованные подстановки не реализованы. Сейчас есть только ?

Combot
07.04.2018
09:58:53
combot.org/chat/-1001080295593


Maxim
07.04.2018
10:08:17
Добрый день! Кто графаной пользуется с плагином для КХ, подскажите, пожалуйста, как побороть проблему автоподстановки "default." перед названиями таблиц. В табиксе оно как-то решено само. В графане пытаюсь выполнить запрос вроде:
SELECT
t,
groupArray((channel, c)) as groupArr
FROM
(
SELECT
(intDiv(timestamp, 216000) * 216000) * 1000 as t,
channel,
count() c
FROM
mydatabase.transactions ANY
LEFT JOIN mydatabase.dict_channel USING merch_name
WHERE
event_date >= toDate(1491559351)
AND timestamp >= 1491559351
GROUP BY
t,
channel
ORDER BY
t,
channel
)
GROUP BY
t
ORDER BY
t
Графана транслирует ошибку от кх:
Code: 60, e.displayText() = DB::Exception: Table default.mydatabase.dict_channel doesn't exist., e.what() = DB::Exception
В редакторе запросов выбрана явно нужная база. Так же пробовал различные комбинации. Если убрать вообще префикс с базой из запроса, то ругается вот так
Code: 60, e.displayText() = DB::Exception: Table default.dict_channel doesn't exist., e.what() = DB::Exception

Google

Андрей
07.04.2018
10:24:44
Графана 5 и плагин последней версии - не замечено такого поведения.
Были другие проблемы с плагином от того, что он сам меняет запрос, но автор исправил не так давно.
Кстати, интересно, зачем плагин сам меняет что-то в запросе? Почему не передавать в CH исходный запрос? На гитхабе там последних пара issue по этому поводу есть.

Maxim
07.04.2018
10:29:23
Андрей, а версия КХ какая?

Андрей
07.04.2018
10:30:46
Старенькая. 1.1.54304.
Графана 5.0.3 и плагин 1.4.1.


Anton
07.04.2018
10:34:40
Добрый день! Кто графаной пользуется с плагином для КХ, подскажите, пожалуйста, как побороть проблему автоподстановки "default." перед названиями таблиц. В табиксе оно как-то решено само. В графане пытаюсь выполнить запрос вроде:
SELECT
t,
groupArray((channel, c)) as groupArr
FROM
(
SELECT
(intDiv(timestamp, 216000) * 216000) * 1000 as t,
channel,
count() c
FROM
mydatabase.transactions ANY
LEFT JOIN mydatabase.dict_channel USING merch_name
WHERE
event_date >= toDate(1491559351)
AND timestamp >= 1491559351
GROUP BY
t,
channel
ORDER BY
t,
channel
)
GROUP BY
t
ORDER BY
t
Графана транслирует ошибку от кх:
Code: 60, e.displayText() = DB::Exception: Table default.mydatabase.dict_channel doesn't exist., e.what() = DB::Exception
В редакторе запросов выбрана явно нужная база. Так же пробовал различные комбинации. Если убрать вообще префикс с базой из запроса, то ругается вот так
Code: 60, e.displayText() = DB::Exception: Table default.dict_channel doesn't exist., e.what() = DB::Exception
У вас таблица с данными случаем не в бд отличной от той где лежит distributed
Ну или справочник тот же


Maxim
07.04.2018
10:35:54
Нет, обе таблицы не distributed и на одном сервере

Anton
07.04.2018
10:36:08
И в одной бд?

Maxim
07.04.2018
10:36:12
ага
то же самое выполняю в табиксе и в консоли кх - работает нормально
Версия кх - 1.1.54236
Графана 5.0.3, плагин 1.4.1.

Ivan
07.04.2018
10:39:52
Господа, а можно для log_queries задать время хранения?
Что бы, скажем, данные больше месяца сами удалялись или перезаписывались?

Maxim
07.04.2018
10:49:09
Ну или справочник тот же
похоже, что это проблема кх. Воспроизвел так:
на версии 1.1.54236 в консоли кх выполнил запрос НЕ делая USE перед этим (именно так ведь работают запросы через HTTP):
Code: 60, e.displayText() = DB::Exception: Table default.mydatabase.dict_channel doesn't exist., e.what() = DB::Exception
А на версии 1.1.54343 все то же самое отработало корректно.
Не в курсе, может такое поведение - это отключаемая фича?)

Tima
07.04.2018
12:32:22

Andrew
07.04.2018
13:03:16
а clickhouse-client умеет в построчный вывод столбцов? как \G у mysql и \x у psql
воу. оказывается он как раз \G и умеет

molo4ko
07.04.2018
13:08:25
Можете попробовать ещё разные форматы, просто добавьте в конце запроса, например, `format Vertical`. В документации есть полный список

Andrew
07.04.2018
13:09:10
во, так нативнее, спасибо)

Google

Andrew
07.04.2018
13:11:09
подвисают намертво запросы по distributed таблице, когда сервер упирается в max_concurrent_queries
через kill query не убиваются, помогает только рестарт сервера...
кто-нибудь сталкивался?
гм, но оно таки тоже не умеет понимать куда данные слать, просто какой-то свой load balancing делает :-/

Kirill
07.04.2018
16:12:23

sha-bang
07.04.2018
16:47:59
Приветстую.
А какие параметры КХ можете посоветовать для построения графиков в системе мониторига? Я хочу, скажем в заббикс добавить мониторинг КХ, чтобы в случае сбоя можно было по графикам быстро понять из-за чего это произошло? Ну или оповещения настроить при достижении определенных значений.

Wolf
07.04.2018
16:53:08
Порты , логин , зукипер, количество записей

sha-bang
07.04.2018
16:58:28

Wolf
07.04.2018
16:59:04
Ну смотря какие падения вы хотите мониторить , в целом мне хватает мониторинга процессора, памяти и места на диске

Stanislav
07.04.2018
17:18:58
иногда стоит ещё rps, возможно даже с инсертами отдельно

?
07.04.2018
17:26:57
в графане это выглядит вот так
https://grafana.com/dashboards?search=clickhouse

Andrew
07.04.2018
18:36:55
внезапно, ни одного graphite'ного дашборда для стандартных метрик которые отправляются clickhouse'ом через carbon?

Denis
07.04.2018
19:37:05
(v1.1.54327.) случилось странное. У сервера 64ГБ, oom начал прибивать КХ (BackgrProcPool).
Добавил своп 64ГБ, и вот теперь я увидел что clickhouse-server скушал всю память и своп VIRT 170GB/ RES 61GB.
Идет мердж:
elapsed: 2233
progress: 0.00140
num_parts: 13
total_size_bytes_compressed: 148508434057
total_size_marks: 20606
bytes_read_uncompressed: 95158253980
rows_read: 237568
bytes_written_uncompressed: 9574550341
rows_written: 131072
memory_usage: 179221182948
Подозреваю, что в той таблице появились строки размером до 4МБ, которые очень хорошо жмутся в пару КБ.
Может это причина?
Никогда такого не было, и что делать теперь?
В общем поменял max_bytes_to_merge_at_max_space_in_pool с 200Г на 50Г, видимо КХ мержить эти парты уже не будет.


?
08.04.2018
08:42:53
а можно ли как-то в кх сделать такую штуку:
SELECT f1, f2, uniq(f3), count(*)....
GROUP BY f1, f2
и вот вместо uniq(f3) - вывести не число уникальных значений в этой группировке, а сами эти уникальные значения? как-то в массив, например, объединить?
можно – groupUniqArray
кх не только не тормозит, но и ?

Ivan
08.04.2018
08:59:59

?
08.04.2018
09:00:11
работа

Antoine
08.04.2018
14:56:12
Привет всем, подскажите новичку. есть таблица с движком MergeTree. при импорте данных часть данных экспортировалась несколько раз и в таблице образовались дубли. как быть, как он них можно проще избавиться?

Wolf
08.04.2018
15:02:18
Проще заново залить данные без дублей

Google

Antoine
08.04.2018
15:03:39
при условии что данные эти существуют, правда ведь?

?
08.04.2018
15:04:36
можно помудрить с генерацией уникального id на основе cityHash64(*)
но в случае коллизий могут быть потери

Antoine
08.04.2018
15:05:42
я почему-то ожидал от КХ что понятие первыичный ключ будет гарантировать защиту от дублей. но нет....

?
08.04.2018
15:05:54
так первичный ключ есть?

Antoine
08.04.2018
15:06:02
есть
это же обязательное поле

?
08.04.2018
15:07:00
он уникальный?
в данных

Antoine
08.04.2018
15:10:41
да

?
08.04.2018
15:11:05
попробуйте
SELECT *, max(uniqID) FROM table GROUP BY *
если не получится тогда придется все поля перечислять - по идее должно уникальные строки выбрать. их уже в отдельную таблицу загнать.

Alexey
08.04.2018
15:11:19
Insert into ваша_тэйбл_temp select <без дублей>
Потом пересоздать и обратно

Antoine
08.04.2018
15:14:36
щас попробую

Alexey
08.04.2018
15:16:39
Если вы точно знаете, по какому полю дубли, группирните по нему

Antoine
08.04.2018
15:18:35
похоже это из-за того что дубли попали в разные месяца?