
Wolf
24.07.2018
06:55:39
Да нет тут этого бота

Evgeny
24.07.2018
06:58:46
Проще взять бота который удаляет джоины

Andrew
24.07.2018
07:00:03

Evgeny
24.07.2018
07:01:08

Google

Александр
24.07.2018
07:01:23
Умеет кликать китайцев
https://t.me/AlexFailsChannel/483

daria
24.07.2018
07:52:50
вспомнила. Banofbot

Андрей
24.07.2018
08:10:16

Ilya
24.07.2018
08:15:05
да лааадно ?

Kirill
24.07.2018
08:19:25
Нужно:
* больше админов чтоб подчищали
* задолбать телеграм через https://telegram.org/support чтоб начали сами бороться с подобными штуками

Dmitriy
24.07.2018
08:19:56
им это не нужно
я про спам и дурова
они дали платформу , а люди пусть сами антиспам ботов создают
у меня просто антиспам бот есть. более менее знаю рынок спамеров

Kirill
24.07.2018
08:21:08
им это не нужно
Это проблема платформы, не нужно кивать на то что ботов можно делать.

Dmitriy
24.07.2018
08:26:58

Konstantin
24.07.2018
08:33:40
делаю ALTER TABLE t_old
DETACH PARTITION 2018 но эффекта нет (можно указать месяц), партиции наблюдаю в system.parts. версия 1.1.54385. по каким причинам такое может происходить? перед этим делал optimize

Google

Kirill
24.07.2018
08:34:52


Konstantin
24.07.2018
08:36:29
Как партиция в system.parts называется?
─partition─┬─name───────────────────────────────────┬─name───────────────────────────────────┬─bytes_on_disk─┐
│ 201807 │ 20180701_20180705_4399572_4399572_1207 │ 20180701_20180705_4399572_4399572_1207 │ 218874526 │
│ 201807 │ 20180705_20180707_4399573_4399573_988 │ 20180705_20180707_4399573_4399573_988 │ 94776389 │
│ 201807 │ 20180707_20180712_4399574_4399574_1384 │ 20180707_20180712_4399574_4399574_1384 │ 177651496 │
│ 201807 │ 20180712_20180715_4399575_4399575_1081 │ 20180712_20180715_4399575_4399575_1081 │ 120869288 │
│ 201807 │ 20180715_20180722_4399576_4399576_1301 │ 20180715_20180722_4399576_4399576_1301 │ 310373382 │
│ 201807 │ 20180722_20180723_4399577_4399577_978 │ 20180722_20180723_4399577_4399577_978 │ 15850750 │
│ 201807 │ 20180723_20180723_4399578_4399578_742 │ 20180723_20180723_4399578_4399578_742 │ 14627852 │
│ 201807 │ 20180723_20180724_4399579_4399579_847 │ 20180723_20180724_4399579_4399579_847 │ 7478456 │
│ 201807 │ 20180724_20180724_4399580_4399580_169 │ 20180724_20180724_4399580_4399580_169 │ 409537 │
│ 201807 │ 20180724_20180724_4399581_4399581_0 │ 20180724_20180724_4399581_4399581_0 │ 20327 │
│ 201807 │ 20180724_20180724_4399582_4399582_0 │ 20180724_20180724_4399582_4399582_0 │ 60405 │
└───────────┴────────────────────────────────────────┴────────────────────────────────────────┴───────────────┘


Kirill
24.07.2018
08:36:59
Вот и дропайте 201807

Konstantin
24.07.2018
08:37:03
оу, все. открепилось ?

Kirill
24.07.2018
08:38:10
Там нужно выбирать с WHERE active, партиция меняет статус и видна в system.parts, но уже недоступна на чтение для новых SELECT
Пока идут чтения из этой партиции её просто так нельзя взять и отцепить ;)

Konstantin
24.07.2018
08:40:34

Sergey
24.07.2018
10:08:08
Привет. Пока на тесте кластер гоняли, было ок. Выкатили с тем же (надеюсь) конфигом на прод, словили "Cannot read all data in NativeBlockInputStream". Объём передаваемой стопки INSERT'ов небольшой, меньше 100. Колонок тоже мало. Потому вариант "сунули гигабайт, не успели вычитать" пока откинул. А куда дальше рыть? От чего такая ошибка бывает?


Tima
24.07.2018
10:15:57
Есть такой запрос создания мат вью
CREATE MATERIALIZED VIEW loadstat_agg_view TO loadstat_agg
ENGINE = AggregatingMergeTree(date, (host, date), 8192) POPULATE AS
SELECT
host,
date,
countState() AS hitCount,
countState(if(load = 0, host, NULL)) AS badCount,
uniqState(ip) AS hostCount,
uniqState(host) AS siteCount,
uniqState(userAgent) AS uniqCount,
avgState(
if(
((resolved - opened) > 0)
AND ((resolved - opened) <= 60000),
resolved - opened,
NULL
) / 1000
) AS avgLoadTime
FROM
loadstat
GROUP BY
host,
date
Ругается:
Code: 62, e.displayText() = DB::Exception: Syntax error: failed at position 99 (line 2, col 1): ENGINE = AggregatingMergeTree(date, (host, date), 8192) POPULATE AS
SELECT
host,
date,
countState() AS hitCount,
countState(if(load = 0, host, NULL)) AS. Expected one of: token, OpeningRoundBracket, AS, e.what() = DB::Exception
Что не так?


Yuri
24.07.2018
10:17:20
коллеги, а есмть у КХ какая-нибудь хитрая функция аггрегирующая, типа возьми записи за такой-то период и с аггреируй их на N сэмплов?

Stanislav
24.07.2018
10:25:38
Могу показать запрос, который делает графана с примерно таким же результатом.
https://pastebin.com/msEmhnZx
t в запросе - unixtimestamp, который увеличивается шагами по 300 секунд (в данном случае). Остальное - бантики

BORIS
24.07.2018
10:29:36

Yuri
24.07.2018
10:30:10

nikita
24.07.2018
10:38:25
если я сделал матвьюшку не через TO table, а через AS SELECT..., я ведь правильно понимаю, что с образовавшейся .inner.-таблицей я могу делать все то же самое, что с обычной таблицей (детачить, переделывать на Replicated, и т.п.)?

Tima
24.07.2018
10:39:44

nikita
24.07.2018
10:42:21
оу... т.е. ответ на мой вопрос - "нет".
и мне надо сделать матвьюху через TO и скопировать туда файлики из папки .inner.-таблицы?

Tima
24.07.2018
10:58:39

nikita
24.07.2018
10:59:30
ага, спасибо. уже делаю.

Google

Michal
24.07.2018
11:24:03
Есть такой запрос создания мат вью
CREATE MATERIALIZED VIEW loadstat_agg_view TO loadstat_agg
ENGINE = AggregatingMergeTree(date, (host, date), 8192) POPULATE AS
SELECT
host,
date,
countState() AS hitCount,
countState(if(load = 0, host, NULL)) AS badCount,
uniqState(ip) AS hostCount,
uniqState(host) AS siteCount,
uniqState(userAgent) AS uniqCount,
avgState(
if(
((resolved - opened) > 0)
AND ((resolved - opened) <= 60000),
resolved - opened,
NULL
) / 1000
) AS avgLoadTime
FROM
loadstat
GROUP BY
host,
date
Ругается:
Code: 62, e.displayText() = DB::Exception: Syntax error: failed at position 99 (line 2, col 1): ENGINE = AggregatingMergeTree(date, (host, date), 8192) POPULATE AS
SELECT
host,
date,
countState() AS hitCount,
countState(if(load = 0, host, NULL)) AS. Expected one of: token, OpeningRoundBracket, AS, e.what() = DB::Exception
Что не так?
Ответил на гитхабе. Если целевая таблица уже есть то матвью не нужны параметры движка для создания .inner таблицы.


Tima
24.07.2018
11:24:45

Michal
24.07.2018
11:35:52
https://github.com/yandex/ClickHouse/blob/7bae3506c41be971ec6ec031c139f596e026a5f0/dbms/src/Parsers/ParserCreateQuery.cpp#L367
POPULATE не работает с TO.
Легко обойти - можно просто INSERT ... SELECT сделать перед созданием матвью
Но действительно наверное несколько нелогично, по крайней мере должно быть какое-то внятное сообщение об ошибке.

Vladimir
24.07.2018
11:38:22

BORIS
24.07.2018
11:39:38

Tima
24.07.2018
11:40:06

Wolf
24.07.2018
11:45:06
А что будет если при расширении зк кластера вышло в итоге два лидера , потом я прибилвсе зк кроме одного и поднял по очереди их вроде они подтянули все данные с одного не прибитого зк
дело шло довольно долго но пропали данные за 10 минут в итоге
на клиентах стоит автоматическое сохранение данных и они их дописывают потом в кх если сейчас не удалось это сделать
в целом все данные подтянулись кроме небольшой части в эти 10 минут
что могло с ними случиться?
Вроде писали что некоторые данные должны будут упасть в итоге в детачед но там их нет

Константин
24.07.2018
11:48:54
День добрый! Народ, подскажите - хочу из одного большого запроса сделать вьюшку, а мне в ответ: DB::Exception: Logical error while creating StorageView. Could not retrieve database name from select query..

Alex
24.07.2018
11:59:28

Константин
24.07.2018
12:02:00
спасибо, помогло

Vlad
24.07.2018
12:25:10
Привет всем, можете помочь при подключении питоном через sqlalchemy query= 'select * from Info limit 5'
connection = engine.connect()
r = connection.execute(query)
result=r.fetchall() - возвращает пустой массив при этом через веб интерфейс запрос обрабатывается нормально

Vladimir
24.07.2018
12:28:41
а если * раскрыть в список? Встречал как-то что * не возвращала одно поле которое успешно возвращалось при полном перечислении

Google

Vlad
24.07.2018
12:29:21
сейчас поробую
неа тоже саое пустое возращает и pd.read_sql_query(query , connection), а так пустой дата фрейм

Daniel
24.07.2018
12:38:46
2018.07.24 15:31:57.778718 [ 3 ] <Warning> DDLWorker: Distributed DDL worker is run with readonly settings, it will not be able to execute DDL queries Set apropriate system_profile or distributed_ddl.profile to fix this.
подскажите, что за ворнинг, чем грозит, как пофиксить?

Kirill
24.07.2018
12:42:06

Vladimir
24.07.2018
12:43:54
Всем привет!
Подскажите, пожалуйста. пытаемся решить проблему подсоединить внешнюю систему (Tableau) к КликХаусу. Подозреваем, что подключаться нужно через ODBC, но гугл выдает только информацию как загнать данные В КХ через ODBC ) А как отдать из КХ данные по этому формату?

Daniel
24.07.2018
12:44:14
может, поэтому так ругается?
при этом в конечном preprocessed конфиге (и в основном) есть
<distributed_ddl>
<!-- Path in ZooKeeper to queue with DDL queries -->
<path>/clickhouse/task_queue/ddl</path>
</distributed_ddl>

Kirill
24.07.2018
12:47:33

Daniel
24.07.2018
12:48:15

Kirill
24.07.2018
12:48:37
Значит смотрите что за настройки для default

Daniel
24.07.2018
12:49:43
<default>
<!-- Maximum memory usage for processing single query, in bytes. -->
<max_memory_usage_for_user>118111600640</max_memory_usage_for_user>
<max_memory_usage_for_all_queries>123480309760</max_memory_usage_for_all_queries>
<max_memory_usage>118111600640</max_memory_usage>
<http_connection_timeout>10</http_connection_timeout>
<connect_timeout_with_failover_ms>2000</connect_timeout_with_failover_ms>
<max_bytes_before_external_group_by>0</max_bytes_before_external_group_by>
<max_bytes_before_external_sort>0</max_bytes_before_external_sort>
<distributed_aggregation_memory_efficient>1</distributed_aggregation_memory_efficient>
<use_uncompressed_cache>0</use_uncompressed_cache>
<load_balancing>random</load_balancing>
<readonly>1</readonly>
</default>
да, default я решил использовать как RO профиль ?
поменяем - спасибо за наводку

napaHouk
24.07.2018
12:51:55

Daniel
24.07.2018
12:52:07
а может проще system_profile сделать тот, который sudoer у нас с RW правами? где его вообще прописывать, system_profile?

Kirill
24.07.2018
12:53:28

napaHouk
24.07.2018
12:53:33

Daniel
24.07.2018
12:55:27

Vladimir
24.07.2018
12:57:37

Google

Sergey
24.07.2018
12:58:07

Konstantin
24.07.2018
12:58:12

Владислав
24.07.2018
13:01:08
Добрый день.
Возникла рассинхронизация между метаданными Zookeeper и, как я понимаю, ReplicatedMergeTree таблицей. Ключи идут в разном порядке. К примеру, show create показывает, что ключи (A, B, C), а в метаданных из
select * from system.zookeeper where path='/clickhouse/tables/0/myTable_replicated'
ключи — (A, C, B). Хочу создать ещё одну реплику, и, по хорошему, хочу создавать с (A, B, C), но выдаёт ошибку Existing table metadata in ZooKeeper differs in primary key.
Как такое могло случиться? Как обстоят дела на самом деле: как в show create или как в system.zookeeper? До этого был уверен, что создавал как в show create.

Mike
24.07.2018
13:26:04
Коллеги, а есть какая-нибудь информация по новым версиям? Которые v18.xx ? Стоит их собирать и пробовать или пока лучше не надо? :)


Kirill
24.07.2018
13:27:45
Добрый день.
Возникла рассинхронизация между метаданными Zookeeper и, как я понимаю, ReplicatedMergeTree таблицей. Ключи идут в разном порядке. К примеру, show create показывает, что ключи (A, B, C), а в метаданных из
select * from system.zookeeper where path='/clickhouse/tables/0/myTable_replicated'
ключи — (A, C, B). Хочу создать ещё одну реплику, и, по хорошему, хочу создавать с (A, B, C), но выдаёт ошибку Existing table metadata in ZooKeeper differs in primary key.
Как такое могло случиться? Как обстоят дела на самом деле: как в show create или как в system.zookeeper? До этого был уверен, что создавал как в show create.
Как-то все печально, в этом случае я бы просто создал новую таблицу с нужной структурой и перелил туда данные, но всё же интересно как это могло получиться.
SHOW CREATE берет файлик с диска, а не из ZK

Michal
24.07.2018
13:30:28

Vladimir
24.07.2018
13:31:47

Michal
24.07.2018
13:34:53
у нас linux ?
Даже не знал что tableau есть под линукс :) Ну по идее должно быть как-то похоже. :)
Только с помощью unixodbc

napaHouk
24.07.2018
13:35:29
у нас linux ?
Так а Табло сервер имеется ввиду? Десктоп табло винда или мак

Владислав
24.07.2018
13:45:23
Ещё. Оказалось, что после ALTER TABLE .. ADD COLUMN .. метаданные в ZK не изменились, и по прежнему не содержат новую колонку. Так и должно быть?