@clickhouse_ru

Страница 597 из 723
Wolf
24.07.2018
06:55:39
Да нет тут этого бота

Evgeny
24.07.2018
06:58:46
Проще взять бота который удаляет джоины

Andrew
24.07.2018
07:00:03
5 как-то мало. можно мини-революцию устроить и испортить чат вообще
по опыту - чаты не порятся, а норм избавляются от спама

Google
Александр
24.07.2018
07:01:23
Умеет кликать китайцев

https://t.me/AlexFailsChannel/483

daria
24.07.2018
07:52:50
вспомнила. Banofbot

Андрей
24.07.2018
08:10:16


Ilya
24.07.2018
08:15:05
да лааадно ?

Kirill
24.07.2018
08:19:25
Нужно: * больше админов чтоб подчищали * задолбать телеграм через https://telegram.org/support чтоб начали сами бороться с подобными штуками

Dmitriy
24.07.2018
08:19:56
им это не нужно

я про спам и дурова

они дали платформу , а люди пусть сами антиспам ботов создают

у меня просто антиспам бот есть. более менее знаю рынок спамеров

Kirill
24.07.2018
08:21:08
им это не нужно
Это проблема платформы, не нужно кивать на то что ботов можно делать.

Konstantin
24.07.2018
08:33:40
делаю ALTER TABLE t_old DETACH PARTITION 2018 но эффекта нет (можно указать месяц), партиции наблюдаю в system.parts. версия 1.1.54385. по каким причинам такое может происходить? перед этим делал optimize

Google
Konstantin
24.07.2018
08:36:29
Как партиция в system.parts называется?
─partition─┬─name───────────────────────────────────┬─name───────────────────────────────────┬─bytes_on_disk─┐ │ 201807 │ 20180701_20180705_4399572_4399572_1207 │ 20180701_20180705_4399572_4399572_1207 │ 218874526 │ │ 201807 │ 20180705_20180707_4399573_4399573_988 │ 20180705_20180707_4399573_4399573_988 │ 94776389 │ │ 201807 │ 20180707_20180712_4399574_4399574_1384 │ 20180707_20180712_4399574_4399574_1384 │ 177651496 │ │ 201807 │ 20180712_20180715_4399575_4399575_1081 │ 20180712_20180715_4399575_4399575_1081 │ 120869288 │ │ 201807 │ 20180715_20180722_4399576_4399576_1301 │ 20180715_20180722_4399576_4399576_1301 │ 310373382 │ │ 201807 │ 20180722_20180723_4399577_4399577_978 │ 20180722_20180723_4399577_4399577_978 │ 15850750 │ │ 201807 │ 20180723_20180723_4399578_4399578_742 │ 20180723_20180723_4399578_4399578_742 │ 14627852 │ │ 201807 │ 20180723_20180724_4399579_4399579_847 │ 20180723_20180724_4399579_4399579_847 │ 7478456 │ │ 201807 │ 20180724_20180724_4399580_4399580_169 │ 20180724_20180724_4399580_4399580_169 │ 409537 │ │ 201807 │ 20180724_20180724_4399581_4399581_0 │ 20180724_20180724_4399581_4399581_0 │ 20327 │ │ 201807 │ 20180724_20180724_4399582_4399582_0 │ 20180724_20180724_4399582_4399582_0 │ 60405 │ └───────────┴────────────────────────────────────────┴────────────────────────────────────────┴───────────────┘

Kirill
24.07.2018
08:36:59
Вот и дропайте 201807

Konstantin
24.07.2018
08:37:03
оу, все. открепилось ?

Kirill
24.07.2018
08:38:10
Там нужно выбирать с WHERE active, партиция меняет статус и видна в system.parts, но уже недоступна на чтение для новых SELECT

Пока идут чтения из этой партиции её просто так нельзя взять и отцепить ;)

Sergey
24.07.2018
10:08:08
Привет. Пока на тесте кластер гоняли, было ок. Выкатили с тем же (надеюсь) конфигом на прод, словили "Cannot read all data in NativeBlockInputStream". Объём передаваемой стопки INSERT'ов небольшой, меньше 100. Колонок тоже мало. Потому вариант "сунули гигабайт, не успели вычитать" пока откинул. А куда дальше рыть? От чего такая ошибка бывает?

Tima
24.07.2018
10:15:57
Есть такой запрос создания мат вью CREATE MATERIALIZED VIEW loadstat_agg_view TO loadstat_agg ENGINE = AggregatingMergeTree(date, (host, date), 8192) POPULATE AS SELECT host, date, countState() AS hitCount, countState(if(load = 0, host, NULL)) AS badCount, uniqState(ip) AS hostCount, uniqState(host) AS siteCount, uniqState(userAgent) AS uniqCount, avgState( if( ((resolved - opened) > 0) AND ((resolved - opened) <= 60000), resolved - opened, NULL ) / 1000 ) AS avgLoadTime FROM loadstat GROUP BY host, date Ругается: Code: 62, e.displayText() = DB::Exception: Syntax error: failed at position 99 (line 2, col 1): ENGINE = AggregatingMergeTree(date, (host, date), 8192) POPULATE AS SELECT host, date, countState() AS hitCount, countState(if(load = 0, host, NULL)) AS. Expected one of: token, OpeningRoundBracket, AS, e.what() = DB::Exception Что не так?

Yuri
24.07.2018
10:17:20
коллеги, а есмть у КХ какая-нибудь хитрая функция аггрегирующая, типа возьми записи за такой-то период и с аггреируй их на N сэмплов?

Stanislav
24.07.2018
10:25:38
Могу показать запрос, который делает графана с примерно таким же результатом.

https://pastebin.com/msEmhnZx

t в запросе - unixtimestamp, который увеличивается шагами по 300 секунд (в данном случае). Остальное - бантики

BORIS
24.07.2018
10:29:36
devtools::install_github("hannesmuehleisen/clickhouse-r") Установив эту библитеку можно создать коннект для библиотеке DBI: con_ch <- dbConnect( clickhouse::clickhouse(), ssl = TRUE, host = твой_хост, port = твой_порт, user = твоё_имя_юзера, password = твой_пароль )
возвращаясь к теме, которую я поднял в пятницу: через пакет Rclickhouse подключиться к кликхаусной базе так и не удалось (dbCanConnect выдает "closed: no error"), а вот через clickhouse-R удалось подключиться, ну или по крайней мере не выдает сообщения об ошибке. Однако dbListTables(con) показывает, что никаких кликхаусных таблиц на сервере нет

nikita
24.07.2018
10:38:25
если я сделал матвьюшку не через TO table, а через AS SELECT..., я ведь правильно понимаю, что с образовавшейся .inner.-таблицей я могу делать все то же самое, что с обычной таблицей (детачить, переделывать на Replicated, и т.п.)?

Tima
24.07.2018
10:39:44
если я сделал матвьюшку не через TO table, а через AS SELECT..., я ведь правильно понимаю, что с образовавшейся .inner.-таблицей я могу делать все то же самое, что с обычной таблицей (детачить, переделывать на Replicated, и т.п.)?
"Недоработано выполнение запросов ALTER над материализованными представлениями, поэтому они могут быть неудобными для использования. Если материализованное представление использует конструкцию TO [db.]name, то можно выполнить DETACH представления, ALTER для целевой таблицы и последующий ATTACH ранее отсоединенного (DETACH) представления." (с) https://clickhouse.yandex/docs/ru/query_language/create/#create-view

nikita
24.07.2018
10:42:21
оу... т.е. ответ на мой вопрос - "нет". и мне надо сделать матвьюху через TO и скопировать туда файлики из папки .inner.-таблицы?

nikita
24.07.2018
10:59:30
ага, спасибо. уже делаю.

Google
Tima
24.07.2018
11:24:45
Michal
24.07.2018
11:35:52
https://github.com/yandex/ClickHouse/blob/7bae3506c41be971ec6ec031c139f596e026a5f0/dbms/src/Parsers/ParserCreateQuery.cpp#L367

POPULATE не работает с TO.

Легко обойти - можно просто INSERT ... SELECT сделать перед созданием матвью

Но действительно наверное несколько нелогично, по крайней мере должно быть какое-то внятное сообщение об ошибке.

BORIS
24.07.2018
11:39:38
Вчера здесь обсуждалась проблема с closed: no error с RClickhouse. Подключайтесь к порту 9000, а не к 8123. RClickhouse не использует HTTP-интерфейс
Спасибо. Да, подтверждаю - с RClickhouse проблема сегодня наконец решилась подключением к порту 9000 и явным прописыванием базы данных в запросе коннекта

Wolf
24.07.2018
11:45:06
А что будет если при расширении зк кластера вышло в итоге два лидера , потом я прибилвсе зк кроме одного и поднял по очереди их вроде они подтянули все данные с одного не прибитого зк

дело шло довольно долго но пропали данные за 10 минут в итоге

на клиентах стоит автоматическое сохранение данных и они их дописывают потом в кх если сейчас не удалось это сделать

в целом все данные подтянулись кроме небольшой части в эти 10 минут

что могло с ними случиться?

Вроде писали что некоторые данные должны будут упасть в итоге в детачед но там их нет

Константин
24.07.2018
11:48:54
День добрый! Народ, подскажите - хочу из одного большого запроса сделать вьюшку, а мне в ответ: DB::Exception: Logical error while creating StorageView. Could not retrieve database name from select query..

Константин
24.07.2018
12:02:00
спасибо, помогло

Vlad
24.07.2018
12:25:10
Привет всем, можете помочь при подключении питоном через sqlalchemy query= 'select * from Info limit 5' connection = engine.connect() r = connection.execute(query) result=r.fetchall() - возвращает пустой массив при этом через веб интерфейс запрос обрабатывается нормально

Vladimir
24.07.2018
12:28:41
а если * раскрыть в список? Встречал как-то что * не возвращала одно поле которое успешно возвращалось при полном перечислении

Google
Vlad
24.07.2018
12:29:21
сейчас поробую

неа тоже саое пустое возращает и pd.read_sql_query(query , connection), а так пустой дата фрейм

Daniel
24.07.2018
12:38:46
2018.07.24 15:31:57.778718 [ 3 ] <Warning> DDLWorker: Distributed DDL worker is run with readonly settings, it will not be able to execute DDL queries Set apropriate system_profile or distributed_ddl.profile to fix this. подскажите, что за ворнинг, чем грозит, как пофиксить?

Vladimir
24.07.2018
12:43:54
Всем привет! Подскажите, пожалуйста. пытаемся решить проблему подсоединить внешнюю систему (Tableau) к КликХаусу. Подозреваем, что подключаться нужно через ODBC, но гугл выдает только информацию как загнать данные В КХ через ODBC ) А как отдать из КХ данные по этому формату?

Daniel
24.07.2018
12:44:14
Там же все написано, используется профайл который readonly и вы не можете выполнять запросы CREATE/DROP ON CLUSTER
есть пользователь replicator, у него профиль sudoer, у sudoer ридонли в 0. но важно пояснить, что пока у нас развёрнуты шарды по 1 реплике каждая. Но зукипер как задел на следующий этап интеграции уже стоит

может, поэтому так ругается?

при этом в конечном preprocessed конфиге (и в основном) есть <distributed_ddl> <!-- Path in ZooKeeper to queue with DDL queries --> <path>/clickhouse/task_queue/ddl</path> </distributed_ddl>

Kirill
24.07.2018
12:47:33
реплицируемый профиль установлен как <readonly>0</readonly>
system_profile какой в конфиге и что у него с readonly?

Daniel
24.07.2018
12:48:15
system_profile какой в конфиге и что у него с readonly?
такого вообще нет, впервые слышу что нужен такой

Kirill
24.07.2018
12:48:37
Значит смотрите что за настройки для default

Daniel
24.07.2018
12:49:43
<default> <!-- Maximum memory usage for processing single query, in bytes. --> <max_memory_usage_for_user>118111600640</max_memory_usage_for_user> <max_memory_usage_for_all_queries>123480309760</max_memory_usage_for_all_queries> <max_memory_usage>118111600640</max_memory_usage> <http_connection_timeout>10</http_connection_timeout> <connect_timeout_with_failover_ms>2000</connect_timeout_with_failover_ms> <max_bytes_before_external_group_by>0</max_bytes_before_external_group_by> <max_bytes_before_external_sort>0</max_bytes_before_external_sort> <distributed_aggregation_memory_efficient>1</distributed_aggregation_memory_efficient> <use_uncompressed_cache>0</use_uncompressed_cache> <load_balancing>random</load_balancing> <readonly>1</readonly> </default> да, default я решил использовать как RO профиль ?

поменяем - спасибо за наводку

Daniel
24.07.2018
12:52:07
а может проще system_profile сделать тот, который sudoer у нас с RW правами? где его вообще прописывать, system_profile?

Kirill
24.07.2018
12:53:28
а может проще system_profile сделать тот, который sudoer у нас с RW правами? где его вообще прописывать, system_profile?
в основном конфиге https://github.com/yandex/ClickHouse/blob/fbe7df73a24733f4ce0b133cb83b8acf962398a3/dbms/programs/server/config.xml#L124

Vladimir
24.07.2018
12:57:37
Google
Sergey
24.07.2018
12:58:07
Владислав
24.07.2018
13:01:08
Добрый день. Возникла рассинхронизация между метаданными Zookeeper и, как я понимаю, ReplicatedMergeTree таблицей. Ключи идут в разном порядке. К примеру, show create показывает, что ключи (A, B, C), а в метаданных из select * from system.zookeeper where path='/clickhouse/tables/0/myTable_replicated' ключи — (A, C, B). Хочу создать ещё одну реплику, и, по хорошему, хочу создавать с (A, B, C), но выдаёт ошибку Existing table metadata in ZooKeeper differs in primary key. Как такое могло случиться? Как обстоят дела на самом деле: как в show create или как в system.zookeeper? До этого был уверен, что создавал как в show create.

Mike
24.07.2018
13:26:04
Коллеги, а есть какая-нибудь информация по новым версиям? Которые v18.xx ? Стоит их собирать и пробовать или пока лучше не надо? :)

Michal
24.07.2018
13:34:53
у нас linux ?
Даже не знал что tableau есть под линукс :) Ну по идее должно быть как-то похоже. :)

Только с помощью unixodbc

napaHouk
24.07.2018
13:35:29
у нас linux ?
Так а Табло сервер имеется ввиду? Десктоп табло винда или мак

Владислав
24.07.2018
13:45:23
Ещё. Оказалось, что после ALTER TABLE .. ADD COLUMN .. метаданные в ZK не изменились, и по прежнему не содержат новую колонку. Так и должно быть?

Страница 597 из 723