
Wolf
09.08.2018
14:35:30
ну я лично пока с обновлениями проблем не имел , ченджлог вроде тоже почитать не сложно, бывают конечно проблемы в каких то случаях, но я бы не сказал чтобы они были чаще чем в любом другом софте который я использую

Alex
09.08.2018
14:36:09
с 1.1.54342 до 18.6.0 всё норм обновлюсь? )

Wolf
09.08.2018
14:36:23
скорее всего да

Tima
09.08.2018
14:37:32

Google

Alexandr
09.08.2018
14:38:13

Mike
09.08.2018
14:59:15
хрен бы с ними со словарями, но если есть таблицы с engine=dictionary - то сервер не стартует. приходится руками ему помогать

Denis
09.08.2018
15:01:07

Wolf
09.08.2018
15:01:43
Кстати сегодня доразнес кластер зукипера из семи штук по разным датацентрам и провайдерам в Европе, пока 20 минут полет нормальный. Как то момент геораспределенности очень плохо описан в интернете либо же все пишут что так делать не надо

Alex
09.08.2018
15:01:46
нет, не тестили, вот только собираюсь

vladimir
09.08.2018
15:05:41
Мы вчера на 6.0 обновились, с 1.0, всё прошло хорошо, нареканий нет

Constantine
09.08.2018
15:14:38

Wolf
09.08.2018
15:14:56
Ну их не было
Переживаю только за связность сети и способность кластера зукипера собираться после развала

Denis
09.08.2018
15:18:36

Wolf
09.08.2018
15:19:22
Ну посмотрим

Ivan
09.08.2018
15:19:41
похоже нашли проблему дублей - internal_replication параметр

Google

Wolf
09.08.2018
15:19:53
Ну там в целом меньше 50мс везде

Alex
09.08.2018
15:44:44

Alexandr
09.08.2018
16:42:22
не завелось

Alexey
09.08.2018
18:12:53
я хочу потесить КХ, какую версию порекомендуете, вот читаю, что словари поломаны в 18.6, мне они вроде не нужны - стоит ее брать?

Wolf
09.08.2018
18:14:12
Последнюю

Dmitry
09.08.2018
18:22:31
Ребята смотрю скоро будут множественные джойны, а как скоро?)

Serge
09.08.2018
19:04:20

Victor
09.08.2018
19:05:19
Так Алексей писал, что для Replicated уже чтоль готовы, для обычного MergeTree осталось запилить

Alexandr
09.08.2018
19:08:46
Или q4

Serge
09.08.2018
19:09:20
ох скорей бы, скорей
у нас запросы генерятся из интерфейса таблицы с фильтрами, через вложенные подзапросы и лапша жесть получается

Tima
09.08.2018
19:11:21

Dmitry
09.08.2018
19:16:33

Alexey
09.08.2018
19:36:41
А еще в роадмапе были DROP для GDPR, это еще в процессе
?

Alex
09.08.2018
19:39:32

Denis
09.08.2018
19:53:11
alter delete работает, я уже на проде 700млн. строк (залитых по ошибке) удалил (18.5.1), (два часа удалялось)

Alexey
09.08.2018
19:57:54
Еще такой вопрос - в кубере на АВС КХ запускается? Я видел офиц докер image

Google

Timur
09.08.2018
21:16:49
для знктоков CH+Supeset: можно ли меять client timeZone при коннекте?
чтоб в superset показывать данные в другой timezone

RUNET
09.08.2018
22:40:54
Обновился до последней версии и теперь пишет
2018.08.10 01:40:11.116978 [ 1 ] <Error> Application: Net Exception: Address already in use: [::1]:8123
2018.08.10 01:40:11.117101 [ 1 ] <Information> Application: shutting down
2018.08.10 01:40:11.117183 [ 1 ] <Debug> Application: Uninitializing subsystem: Logging Subsystem
2018.08.10 01:40:11.117321 [ 6 ] <Information> BaseDaemon: Stop SignalListener thread
ничего не помогает(
порт свободен

Ivan
09.08.2018
22:44:44

RUNET
09.08.2018
22:44:55
даже рибут(

Ivan
09.08.2018
22:47:58

RUNET
09.08.2018
22:48:12
еще не пробовал ...

prll
09.08.2018
22:48:25
а что еще пишет ?
полный лог можно ?


RUNET
09.08.2018
22:49:59
/etc/clickhouse-server# sudo service clickhouse-server start
/etc/clickhouse-server# sudo service clickhouse-server status
● clickhouse-server.service - ClickHouse Server (analytic DBMS for big data)
Loaded: loaded (/lib/systemd/system/clickhouse-server.service; disabled; vendor preset: enabled)
Active: activating (auto-restart) (Result: exit-code) since Thu 2018-08-09 22:49:32 UTC; 1s ago
Process: 1820 ExecStart=/usr/bin/clickhouse-server --config=/etc/clickhouse-server/config.xml (code=exited, status=70)
Process: 1814 ExecStartPre=/bin/chown clickhouse:clickhouse -R /etc/clickhouse-server (code=exited, status=0/SUCCESS)
Process: 1813 ExecStartPre=/usr/bin/chown clickhouse:clickhouse -R /etc/clickhouse-server (code=exited, status=203/EXEC)
Main PID: 1820 (code=exited, status=70)
CPU: 204ms
Aug 09 22:49:32 ubuntu-2gb-fra1-01 systemd[1]: clickhouse-server.service: Failed with result 'exit-code'.
в логах пусто
если запускать так clickhouse-server --config-file=/etc/clickhouse-server/config.xml
2018.08.10 01:50:30.903804 [ 1 ] <Debug> Application: Loaded metadata.
2018.08.10 01:50:30.904167 [ 1 ] <Information> Application: Listening http://[::]:8123
2018.08.10 01:50:30.904248 [ 1 ] <Information> Application: Listening tcp: [::]:9000
2018.08.10 01:50:30.904311 [ 1 ] <Information> Application: Listening interserver http: [::]:9009
2018.08.10 01:50:30.904589 [ 1 ] <Information> Application: Shutting down storages.
2018.08.10 01:50:30.907096 [ 1 ] <Debug> Application: Shutted down storages.
2018.08.10 01:50:31.688774 [ 1 ] <Debug> Application: Destroyed global context.
2018.08.10 01:50:31.689365 [ 1 ] <Error> Application: Net Exception: Address already in use: 127.0.0.1:8123
2018.08.10 01:50:31.689395 [ 1 ] <Information> Application: shutting down
2018.08.10 01:50:31.689412 [ 1 ] <Debug> Application: Uninitializing subsystem: Logging Subsystem
2018.08.10 01:50:31.689523 [ 4 ] <Information> BaseDaemon: Stop SignalListener thread


prll
09.08.2018
22:51:45
убрать из listen_host все кроме ::

RUNET
09.08.2018
22:54:35
спасибо!)
убрать из listen_host все кроме ::

Alexey
10.08.2018
01:16:05
вот такой вопрос - я пытаюсь заимпортить New York Taxi data по гайду https://clickhouse.yandex/docs/en/getting_started/example_datasets/nyc_taxi/
можно ли мне просто обработать строки sed'ом и time clickhouse-client --query="INSERT INTO trips FORMAT CSV" < data/yellow_tripdata_2010-03.csv
в гайде описан шаг с импортом в PG потом выгрузка оттуда в TabSeparated и загрузка TabSeparated в КХ

Alexey
10.08.2018
05:04:32
/stat@combot

Google

Combot
10.08.2018
05:04:33
combot.org/c/-1001080295593

Timur
10.08.2018
05:58:26
подскажите по архитектуре схемы: есть распределенная табилца с шардами. Как лучше сделать materilized view на эти распределенные данные? можно сделать на распределенную таблицу, а можно на локальную и сделпть поверх этого distributed.
+ продублирую вопрос:
для знатоков CH+Superset: можно ли меять client timeZone при коннекте?
чтоб в superset показывать данные в другой timezone

Wolf
10.08.2018
06:13:04

Alexey
10.08.2018
06:21:13

Vladimir
10.08.2018
09:43:13
подскажите, можно ли массивы использовать в словарях?

Andrei
10.08.2018
09:43:15
Всем привет, вопрос про функции работы с временем которые поддерживают таймзоны. Насколько я вижу по ошибкам параметр таймзоны должен быть константой, можно ли это как-то обойти? У меня в запросе таймзона всегда одна в рамках запроса но она должна браться из словаря. Пока что решил это тем что делаю два запроса со стороны приложения, сначала достаю таймзону а потом во второй запрос подставляю.

Alex
10.08.2018
10:27:26
Всем привет! Пробую тут обновить кластер и после перезагрузки ноды начинают сыпаться такие исключения
DB::Exception: Received from clickhouse9:9000, 192.168.231.101. DB::Exception: Table is in readonly mode. Stack trace
Что это значит?

Vladislav
10.08.2018
10:28:15
привет. а насколько нормально создавать MATERIALIZED VIEW от Replicated* таблицы? Создал distributed, которая смотрит на вьюхи, и каждый запрос получаю разные значения.

Wolf
10.08.2018
10:28:36

Alex
10.08.2018
10:30:54
Ну с зукипером вроде всё ок

Wolf
10.08.2018
10:33:16
ну у меня таблица в риадонли уходила только когда нет зукипера , возможно есть другие причины для этого, надо болльше строк смотреть в ерорлоге кх


Alex
10.08.2018
10:33:54
2018.08.10 10:31:33.137838 [ 38 ] <Error> executeQuery: Code: 242, e.displayText() = DB::Exception: Table is in readonly mode, e.what() = DB::Exception (from [::ffff:192.168.231.104]:58274) (in query: INSERT INTO metrika.productsites_log_local (Timestamp, Method, HttpStatus, HostName, UriPath, UriParam, Referer, RawUserAgent, ClientIp, PortalUserId, PortalSessionId, RequestLength, BytesSent, UpstreamResponseTime, EventDate, NgToken) FORMAT Values), Stack trace:
0. /usr/bin/clickhouse-server(StackTrace::StackTrace()+0x16) [0x56d1436]
1. /usr/bin/clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x22) [0x2db80f2]
2. /usr/bin/clickhouse-server(DB::StorageReplicatedMergeTree::assertNotReadonly() const+0x72) [0x4fc9332]
3. /usr/bin/clickhouse-server(DB::StorageReplicatedMergeTree::write(std::shared_ptr<DB::IAST> const&, DB::Settings const&)+0x25) [0x4fc93b5]
4. /usr/bin/clickhouse-server(DB::PushingToViewsBlockOutputStream::PushingToViewsBlockOutputStream(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, std::shared_ptr<DB::IStorage> const&, DB::Context const&, std::shared_ptr<DB::IAST> const&, bool)+0x718) [0x520c138]
5. /usr/bin/clickhouse-server(DB::InterpreterInsertQuery::execute()+0x23a) [0x4e6440a]
6. /usr/bin/clickhouse-server() [0x4ef181b]
7. /usr/bin/clickhouse-server(DB::executeQuery(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, DB::Context&, bool, DB::QueryProcessingStage::Enum)+0x8a) [0x4ef283a]
8. /usr/bin/clickhouse-server(DB::TCPHandler::runImpl()+0x3d7) [0x2dc4c27]
9. /usr/bin/clickhouse-server(DB::TCPHandler::run()+0x2b) [0x2dc5acb]
10. /usr/bin/clickhouse-server(Poco::Net::TCPServerConnection::start()+0xf) [0x58c56af]
11. /usr/bin/clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x16a) [0x58c5a8a]
12. /usr/bin/clickhouse-server(Poco::PooledThread::run()+0x77) [0x5966e97]
13. /usr/bin/clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0x38) [0x5962d58]
14. /usr/bin/clickhouse-server() [0x938cc0f]
15. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76ba) [0x7f00806586ba]
16. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7f007fe8141d]


Wolf
10.08.2018
10:38:15
ну должен быть еще же контекст выше и ниже
а место на диске случаем не закончилось ?

Alex
10.08.2018
10:58:02
Может и прадва зукипер. У меня секция zookeeper-servers была в файле, вместе с секцией clickhouse_remote_servers.
Я перенёс zookeeper-servers в отдельный файл, сделал инклуд и оно похоже не завелось из-за этого
Я не понимаю

Wolf
10.08.2018
10:59:24
ну верни как было

Google

Wolf
10.08.2018
10:59:43
какой смысл менять конфиг и при этом еще и обновлять кх

Mike
10.08.2018
11:02:58
Коллеги, а привычный sql join on в 18.6 должен уже работать или все еще немного свой синтаксис?

Ivan
10.08.2018
11:38:27

Ivan
10.08.2018
11:56:03
Извиняюсь за вопрос не в тему кликхауса, но может кто подскажет куда копать. Пытаюсь скомпилировать с++ библиотеку GMP под win7-64, в оболочке MSYS. Выдает такую ошибку во время сборки: Error: unknown pseudo-op: `.hidden'

Alexey
10.08.2018
12:10:23
Добрый день!
Подскажите, пожалуйста, как настроить проверку переполнения при insert. В конфигурации Кликхауса по умолчанию такая вставка проходит без ошибок:
CREATE TABLE default.test (
i32 UInt32
) ENGINE = Memory;
INSERT INTO default.test (i32) VALUES (123456789012345);
(проверял также для MergeTree - поведение такое же)


fikfok
10.08.2018
12:15:33
Коллеги, добрый день!
Никто не сталкивался с таким явлением с матвью.
Есть два идентичных по результату запроса: один к таблице с детальными данными, второй к матвью. Запрос к таблице с детальными данными отрабатывает быстрее чем к матвью. Это первое.
И второе. В обоих запросах использутеся функция toStartOfFifteenMinutes. Так вот, запрос к детальным данным возвращает одно количество строк, а запрос к матвью в 10 раз меньше. Т.е. второй запрос пропускает какие-то времена. Хотя общие итоги совпадают.
Я перестал что-то понимать в матвью. У кого-то было что-то подобное?
П.С. Матвью создавалось на рабочей боевой таблице с ключевым словом populate. Т.е. во время работы команды CREATE MATERIALIZED VIEW... данные понемногу загружались в таблицу с детальными данными небольшими порциями (сотни-несколько тысяч записей в минуту, записываются не непрерывно, а квантами). Про то что таблицу надо "останавливать" для CREATE в курсе. Но в итоге общие count и uniq на таблице с детальными данными и матвью совпадают, потому сделал вывод, что рабочий процесс по загрузке данных не повлиял на матвью и данные не потерялись.


Necromant
10.08.2018
12:22:47
Доброго дня.
Никто не подскажет со следующей проблемой:
Есть слежующее железо: Dell PowerEdge T610 (http://www.dell.com/ru/business/p/poweredge-t610/pd)
Как носители информации используются обычные HDD, памяти ОЗУ тоже не сильно много, около 16Гб.
Нужно работать с большими выборками, при крупных запросах и операциях добавления данных сервер фризит.
Может ли решить проблему установка SSD, или же проблема скорее суммарно в слабом железе?

Mike
10.08.2018
12:33:03

Вячеслав
10.08.2018
12:36:11