@clickhouse_ru

Страница 274 из 723
Алексей
29.09.2017
10:12:05
ок пасибо

Nikolai
29.09.2017
10:15:41
Max
29.09.2017
10:16:18
мистайп всего/ в одном месте было nullabe вместо nullable.(

Google
Konstantin
29.09.2017
12:10:16
@kochetovnicolai Николай, подскажите, в последних билдах изменили лимит на загрузку словаря? или оставили #define MAX_PAGES 1024 * 16 и надо опять вручную менять?

Konstantin
29.09.2017
12:13:12
еще не исправил :(
ок, поправим ручками)

Nikolai
29.09.2017
12:13:34
хотел сделать что-то динамическое, но пока не дошел

Vladimir ?
29.09.2017
14:08:30
Добрый день! А как в кликхаусе реализован механизм Nullable колонок? Их использование не влияет на производительность?

Вообще насколько допустимо их использование? Вроде, механизм работающий, но в документации про Nullable ни слова (только в разделе временных таблиц и очистку данных)

papa
29.09.2017
14:19:53
Nullable добавляет некоторый оверхед на хранение и обработку, также есть некоторые ограничения на комбинирование Nullable с остальными типами и есть отличия в работе с null значениями по сравнению с другими базами. последнее в том числе связано с не до конца доделанной поддержкой null.

Vladimir ?
29.09.2017
14:20:35
А большой оверхед?

Shine
29.09.2017
14:21:46
И сразу вопрос, а когда будет полноценная поддержка nullов ? :)

Nikolai
29.09.2017
14:27:22
А большой оверхед?
в основном, оверхед связан с дополнительной колонкой, в которой значения помечаются как null. Грубо говоря, работает так же, как если бы вы сами создали внешнюю колонку UInt8 с флагами - пометками. + еще небольшой оверхед на виртуальные вызовы, их примерно в 2 раза больше.

Konstantin
29.09.2017
14:28:41
коллеги, глупый вопрос, обновился до последнего билда теперь запрос вида: SELECT * FROM stat WHERE date >= '2017-09-28' LIMIT 1 выполняется 8 секунд, а запрос: SELECT clip, countDistinct(userid) FROM stat WHERE (date >= toDate('2017-09-28')) AND (action = '25prc') GROUP BY clip_meganame ORDER BY count() DESC LIMIT 10 выполняется 2, почему так?

Alexey
29.09.2017
14:31:39
Это возможно из-за автоматического переноса условий в PREWHERE. Во втором запросе больше условий, которые могут помочь фильтрации данных.

Google
Konstantin
29.09.2017
14:39:17
методом тыка выяснилось такая разница в выполнении из-за того что дата указаная в запросе еще не смерджилась с партицией)

Aleksey
01.10.2017
06:54:22
https://github.com/yandex/ClickHouse/releases/v1.1.54282-stable was tagged
Всем привет, вопрос для тех кто работает с апи метрики Делаю запрос http://joxi.ru/xAeDbDcY68o72y И получаю расхождения по номерам объявлений и фраз со значеними в utm метках - http://joxi.ru/KAgoeoTgeGxDAl и таких приколов много. Оно даже выдает campaign_id и ad_id в источниках, не являющиеся переходами с директа В итоге статистика сильно расходится с тем что в интерфейсе метрики, хотя через определенные костыли можно выровнить Кто нибуть сталкивался? Запрос в поддержку написал.

Aleksey
01.10.2017
07:03:25
поковыряю варианты, но так странно работать - или данные нормальные отдавать или ошибку что запрос кривой

http://joxi.ru/Dr8yZyCknLVEm6 - даже простой вариант ошибается на 20% по сравнению с тем что в интерфейсе метрики не везде так все плохо, но что-то не то

Tima
01.10.2017
07:49:21
http://joxi.ru/Dr8yZyCknLVEm6 - даже простой вариант ошибается на 20% по сравнению с тем что в интерфейсе метрики не везде так все плохо, но что-то не то
Может дело в семплировании? Я пока в своих запросах к апи метрики не указал не импользовать сеплирование - цифры с интерфейсом не сходились

Aleksey
01.10.2017
07:56:35
хорошая версия, но нет http://joxi.ru/12MYEYh4XW4j2J

Больше интересно почему не совпадают номера http://joxi.ru/gmvvnvtxBKLLma, но через костыли вроде сходится статистика )

Aleksey
01.10.2017
08:04:59
ок

Kirill
01.10.2017
17:28:19
Всем добрый вечер! Пробую на python через clickhouse_sqlalchemy выполнить вставку данных в таблицу session.execute(table_name.insert(), [лист словарей(столбец: значение)] ) все столбцы, которые должны иметь DateTime приведены .astype('datetime64[ns]'), но получаю ошибку INSERT INTO table_name (...fields...) VALUES 2017.10.01 19:55:00.520059 [ 9 ] <Error> executeQuery: Code: 41, e.displayText() = DB::Exception: Cannot parse datetime 2017-10-01: (at row 1) Проверил поля - все в {Timestamp} 2017-10-01 15:15:03. В чём может быть проблема ?

Kostya
01.10.2017
17:44:29
Добрый вечер. Создайте issue в clickhouse-sqlalchemy с указанием dsn, схемы таблицы и данных, что вставляете. Я посмотрю. Проблема не в самом КХ. Если пробуете вставить по http, то попробуйте по native-протоколу.

Ivan
01.10.2017
18:04:34
Есть ли Chef cookbook где то для установки clickhouse ?

liebe
01.10.2017
18:24:39
@ikosyanenko http://clickhouse.readthedocs.io/en/latest/reference_ru.html

silencer
01.10.2017
18:24:40
@ikosyanenko http://clickhouse.readthedocs.io/en/latest/reference_ru.html
@kochetovnicolai @proller @ztlpn @vludv @orantius @miptgirl @milovidov_an @the_real_jkee clean time

Алексей
01.10.2017
18:31:16
суровый бот то. предлагать бан за ссылку на офф доку, пока самый победный вариант

Stas
01.10.2017
20:27:13
Коллеги, а в CH не планируется ли сделать штуку из ELK - что бы данные можно было делить на горячие и холодные, по дате например, что бы в зависимости о настроек, данные когда становятся холодными - уезжали на другие сервера с горячих (это актуально если использовать конфигурацию кластера где часть серверов с SSD а часть - с HDD) ?

Google
Stas
01.10.2017
22:29:01
я думаю это можно как-то добиться шардингом, но сложнее
сложно будет это сделать, а вот нативно мне кажется будет легко, тк в тех же таблицах с движком mergetree - время обязательное => это будет работать всегда и из коробки (при желании и при включении для таблицы). Может стоит issue на гите завести?

Stas
01.10.2017
22:37:56
Ну раз многим это надо - может вместе по просим эту фичу ?)

Kirill
02.10.2017
05:55:54
В v1.1.54294-testing оно есть https://github.com/yandex/ClickHouse/blob/v1.1.54294-testing/dbms/tests/queries/0_stateless/00502_custom_partitioning_local.sql

В продакшене использовать нельзя, а вот поиграться и багрепорты посылать (если будет что) можно

Stas
02.10.2017
06:42:56
сейчас по партициям это делается достаточно легко, учитывая что скоро партиции будут не только по месяцам, то и данные можно будет переносить за произвольный период
Не очень понял как произвольная партиция тут поможет? Нужно же тогда скриптом гонять патриции между серверами ...

Kirill
02.10.2017
06:46:13
да, просто брать и отцеплять партиции и переносить их, дел на 15 минут

Stas
02.10.2017
07:15:34
да, просто брать и отцеплять партиции и переносить их, дел на 15 минут
Но это руками надо будет делать :) а хотелось бы что бы оно само переезжало согласно правилу, не планируется ли такая фича?

Kirill
02.10.2017
07:17:58
не знаю про планы, но на данный момент это явно лишнее, и без этого проблем полно.

Nedashkovskiy
02.10.2017
08:08:07
/stat@combot

Combot
02.10.2017
08:08:07
combot.org/chat/-1001080295593

Serg
02.10.2017
08:18:49
Привет. Подскажите по поводу CH в докере. Сервер поднимается, volume мапится и даже базы видит, но данных не видит.

Ivan
02.10.2017
08:20:15
А права на файлы у пользователя clickhouse в контейнере есть?

Serg
02.10.2017
08:21:43
777

Sergei
02.10.2017
08:23:00
Подскажите пожалуйста как решить проблему. DB::Exception: Cannot create table from metadata file /home/clickhouse/data/metadata/default//hb_sessions.sql, error: zkutil::KeeperException: Can't get data for node /clickhouse/tables/02/hb_sessions/metadata: node doesn't exist (no node), stack trace: куда смотреть?

Vladimir
02.10.2017
08:37:30
Добрый день, а как вывести КХ из оцепенения? подключиться не получается, растартовать или даже остановаить - тоже(



Paul
02.10.2017
08:58:18
а в логах есть что?

Google
Paul
02.10.2017
08:58:29
я бы оттуда начал. Данные есть, много?

Александр
02.10.2017
09:00:02
Добрый день, а как вывести КХ из оцепенения? подключиться не получается, растартовать или даже остановаить - тоже(
А до этого выполняли какие то DDL запросы? У меня подобная ситуация была при выполнении DDL запросов на кластер. Сервера вставали колом и помогал только рестарт сервера.

Vladimir
02.10.2017
09:00:27
грузил данные просто

вывалилось пара ошибок и всё встало

В логах покапаюсь, пока просто удалю часть данных и перезагружу, надуюсь поможет

При этом у меня 2 таблиц в КХ и обе сломались

Paul
02.10.2017
09:14:19
по-моему в данной ситуации вам проще всего прибить процессы по kill -9 и очистить datadir (если данные не жалко)

Sergei
02.10.2017
10:18:15
А какой у вас SHOW CREATE TABLE? Скорее всего вы не к тому зукиперу подключаетесь.
спасибо, разобрался в конфиге был указан не тот шард

Alexey
02.10.2017
10:42:12
по-моему в данной ситуации вам проще всего прибить процессы по kill -9 и очистить datadir (если данные не жалко)
Ничего чистить не надо. ClickHouse переживает kill -9. Если используются таблицы семейства MergeTree, то они будут находиться в консистентном состоянии после грубого рестарта.

Вместо kill -9 есть команда sudo service clickhouse-server forcerestart.

Vladimir
02.10.2017
11:12:01
А что значит сломались?
Что-то в этом роде: Code: 40. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Checksum doesn't match: corrupted data..

Егор
02.10.2017
11:20:32
Всем привет! Подскажите пожалуйста, зачем нужен столбец Sign в таблицах Nested? В CollapsingMergeTree понятно, а тут - не совсем...

papa
02.10.2017
11:21:13
вы думаете над тем, создавать ли его там, или его уже кто-то до вас создал?

Егор
02.10.2017
11:24:17
Я к тому, что в документации он есть, и без него Nested таблица не создается. https://clickhouse.yandex/docs/ru/data_types/nested_data_structures/nested.html?highlight=nested Мне нужно знать что это за столбец, для чего он нужен.

papa
02.10.2017
11:27:27
вот так создается CREATE TABLE a ( b Nested( c Int8) ) ENGINE = Memory Ok.

внутри Nested sign не нужен, но если у вас Nested живет в CollapsingMergeTree, то где-то в нем должен быть Sign

Егор
02.10.2017
11:43:51
Так, перечитиал документацию еще раз) Должен ли я передавать значение -1 или 1 в столбец Sign?

Google
papa
02.10.2017
11:46:20
более того, при этом надо помнить предыдущую версию строки.

Егор
02.10.2017
11:47:31
Спасибо, за помощь!

Vladimir
02.10.2017
11:59:04
Вот откуда может такое вылезать? как вылнечить? DB::Exception: Checksum doesn't match: corrupted data.: (while reading column url): (while reading from part /var/lib/clickhouse//data/default/hits/20170918_20170920_5967_5995_2/ from mark 163 with max_rows_to_read = 24576).

prll
02.10.2017
12:16:04
пишет что нет файла config.xml , обычно он должен лежать в /etc/clickhouse-server/config.xml или путь может быть переопределен в /etc/default/clickhouse

Vladimir
02.10.2017
12:18:27
Файл на месте..



Vitaliy
02.10.2017
12:22:36
Он может долго загружаться, в это время он не слушает порты. Надо в лог смотреть.

prll
02.10.2017
12:23:15
tail -n 50 /var/log/clickhouse-server/clickhouse-server.log

Vladimir
02.10.2017
12:23:22


tail -n 50 /var/log/clickhouse-server/clickhouse-server.log
ubuntu@ubuntu-OptiPlex-7040:/etc/clickhouse-server$ sudo tail -n 50 /var/log/clickhouse-server/clickhouse-server.log 2017.10.02 15:23:25.486941 [ 4 ] <Debug> default.hits (Merger): Selected MergeAlgorithm: Horizontal 2017.10.02 15:23:25.487004 [ 4 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170920_20170920_6744_6749_1, approx. 2670592 rows starting from 0 2017.10.02 15:23:25.487026 [ 4 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6750_6755_1, approx. 2588672 rows starting from 0 2017.10.02 15:23:25.487075 [ 4 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6756_6761_1, approx. 2580480 rows starting from 0 2017.10.02 15:23:25.487093 [ 4 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6762_6767_1, approx. 2596864 rows starting from 0 2017.10.02 15:23:25.487106 [ 4 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6768_6772_1, approx. 2146304 rows starting from 0 2017.10.02 15:23:25.487119 [ 4 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6773_6773_0, approx. 434176 rows starting from 0 2017.10.02 15:23:25.487130 [ 4 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170918_20170918_6774_6774_0, approx. 442368 rows starting from 0 2017.10.02 15:23:25.487144 [ 4 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170918_20170918_6775_6775_0, approx. 442368 rows starting from 0 2017.10.02 15:23:33.458187 [ 4 ] <Debug> MemoryTracker: Peak memory usage: 219.27 MiB. 2017.10.02 15:23:33.484202 [ 4 ] <Error> void DB::BackgroundProcessingPool::threadFunction(): Code: 40, e.displayText() = DB::Exception: Checksum doesn't match: corrupted data.: (while reading column client_id): (while reading from part /var/lib/clickhouse//data/default/hits/20170919_20170919_6750_6755_1/ from mark 301 with max_rows_to_read = 8192), e.what() = DB::Exception, Stack trace: 0. clickhouse-server(StackTrace::StackTrace()+0x16) [0x30d6226] 1. clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x1f) [0x137053f] 2. clickhouse-server(DB::CompressedReadBufferBase::readCompressedData(unsigned long&, unsigned long&)+0x3d2) [0x30f9012] 3. clickhouse-server(DB::CompressedReadBufferFromFile::readBig(char*, unsigned long)+0xbf) [0x3101f4f] 4. clickhouse-server(DB::DataTypeNumberBase<unsigned long>::deserializeBinaryBulk(DB::IColumn&, DB::ReadBuffer&, unsigned long, double) const+0x27b) [0x2a5c98b] 5. clickhouse-server(DB::MergeTreeReader::readData(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, DB::IDataType const&, DB::IColumn&, unsigned long, bool, unsigned long, unsigned long, bool)+0x8ef) [0x331de8f] 6. clickhouse-server(DB::MergeTreeReader::readRows(unsigned long, bool, unsigned long, DB::Block&)+0x37f) [0x331e4ef] 7. clickhouse-server(DB::MergeTreeRangeReader::read(DB::Block&, unsigned long)+0x48) [0x32c8318] 8. clickhouse-server(DB::MergeTreeBaseBlockInputStream::readFromPart()+0x2f05) [0x32917f5] 9. clickhouse-server(DB::MergeTreeBaseBlockInputStream::readImpl()+0xf0) [0x32922d0] 10. clickhouse-server(DB::IProfilingBlockInputStream::read()+0x221) [0x2a46fc1] 11. clickhouse-server(DB::ExpressionBlockInputStream::readImpl()+0x2d) [0x340f46d] 12. clickhouse-server(DB::IProfilingBlockInputStream::read()+0x221) [0x2a46fc1] 13. clickhouse-server(DB::MaterializingBlockInputStream::readImpl()+0x34) [0x33b2cd4] 14. clickhouse-server(DB::IProfilingBlockInputStream::read()+0x221) [0x2a46fc1] 15. clickhouse-server(void DB::MergingSortedBlockInputStream::fetchNextBlock<DB::SortCursor?DB::SortCursor const&, std::priority_queue<DB::SortCursor, std::vector<DB::SortCursor, std::allocator<DB::SortCursor> >, std::less<std::vector<DB::SortCursor, std::allocator<DB::SortCursor> >::value_type> >&)+0x121) [0x33f57e1]

tail -n 50 /var/log/clickhouse-server/clickhouse-server.log
16. clickhouse-server(void DB::ReplacingSortedBlockInputStream::merge<DB::SortCursor?std::vector<DB::IColumn*, std::allocator<DB::IColumn*> >&, std::priority_queue<DB::SortCursor, std::vector<DB::SortCursor, std::allocator<DB::SortCursor> >, std::less<std::vector<DB::SortCursor, std::allocator<DB::SortCursor> >::value_type> >&)+0x410) [0x33c62b0] 17. clickhouse-server(DB::ReplacingSortedBlockInputStream::readImpl()+0x3f6) [0x33c3416] 18. clickhouse-server(DB::IProfilingBlockInputStream::read()+0x221) [0x2a46fc1] 19. clickhouse-server(DB::MergeTreeDataMerger::mergePartsToTemporaryPart(DB::MergeTreeDataMerger::FuturePart const&, DB::MergeListEntry&, unsigned long, long, DB::DiskSpaceMonitor::Reservation*, bool)+0x29df) [0x32f05ff] 20. clickhouse-server(DB::StorageMergeTree::merge(unsigned long, bool, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, bool, bool)+0x55f) [0x32101bf] 21. clickhouse-server(DB::StorageMergeTree::mergeTask()+0x19a) [0x3210c8a] 22. clickhouse-server(DB::BackgroundProcessingPool::threadFunction()+0x3de) [0x32c9bbe] 23. clickhouse-server() [0x3eca42f] 24. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76ba) [0x7fcb765ec6ba] 25. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7fcb75c0d3dd] 2017.10.02 15:23:36.451914 [ 13 ] <Debug> default.hits (Merger): Selected 8 parts from 20170920_20170920_6744_6749_1 to 20170918_20170918_6775_6775_0 2017.10.02 15:23:36.451977 [ 13 ] <Debug> default.hits (Merger): Merging 8 parts: from 20170920_20170920_6744_6749_1 to 20170918_20170918_6775_6775_0 into tmp_merge_20170918_20170920_6744_6775_2 2017.10.02 15:23:36.452611 [ 13 ] <Debug> default.hits (Merger): Selected MergeAlgorithm: Horizontal 2017.10.02 15:23:36.452667 [ 13 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170920_20170920_6744_6749_1, approx. 2670592 rows starting from 0 2017.10.02 15:23:36.452691 [ 13 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6750_6755_1, approx. 2588672 rows starting from 0 2017.10.02 15:23:36.452711 [ 13 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6756_6761_1, approx. 2580480 rows starting from 0 2017.10.02 15:23:36.452741 [ 13 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6762_6767_1, approx. 2596864 rows starting from 0 2017.10.02 15:23:36.452755 [ 13 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6768_6772_1, approx. 2146304 rows starting from 0 2017.10.02 15:23:36.452788 [ 13 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170919_20170919_6773_6773_0, approx. 434176 rows starting from 0 2017.10.02 15:23:36.452816 [ 13 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170918_20170918_6774_6774_0, approx. 442368 rows starting from 0 2017.10.02 15:23:36.452838 [ 13 ] <Trace> MergeTreeBlockInputStream: Reading 1 ranges from part 20170918_20170918_6775_6775_0, approx. 442368 rows starting from 0

Alexey
02.10.2017
12:25:20
Посмотрите dmesg: dmesg -T | less

Типичная проблема, если max memory usage больше, чем доступно оперативки на вашей виртуалке.

Vladimir
02.10.2017
12:26:41
Посмотрите dmesg: dmesg -T | less
ubuntu@ubuntu-OptiPlex-7040:/etc/clickhouse-server$ dmesg -T | less [Пн окт 2 13:04:53 2017] microcode: microcode updated early to revision 0xba, date = 2017-04-09 [Пн окт 2 13:04:53 2017] Linux version 4.10.0-35-generic (buildd@lcy01-33) (gcc version 5.4.0 20160609 (Ubuntu 5.4.0-6ubuntu1~16.04.4) ) #39~16.04.1-Ubuntu SMP Wed Sep 13 09:02:42 UTC 2017 (Ubuntu 4.10.0-35.39~16.04.1-generic 4.10.17) [Пн окт 2 13:04:53 2017] Command line: BOOT_IMAGE=/boot/vmlinuz-4.10.0-35-generic root=UUID=aa1d915a-33a4-4615-8a6c-7ade105b8c62 ro quiet splash vt.handoff=7 [Пн окт 2 13:04:53 2017] KERNEL supported cpus: [Пн окт 2 13:04:53 2017] Intel GenuineIntel [Пн окт 2 13:04:53 2017] AMD AuthenticAMD [Пн окт 2 13:04:53 2017] Centaur CentaurHauls [Пн окт 2 13:04:53 2017] x86/fpu: Supporting XSAVE feature 0x001: 'x87 floating point registers' [Пн окт 2 13:04:53 2017] x86/fpu: Supporting XSAVE feature 0x002: 'SSE registers' [Пн окт 2 13:04:53 2017] x86/fpu: Supporting XSAVE feature 0x004: 'AVX registers' [Пн окт 2 13:04:53 2017] x86/fpu: Supporting XSAVE feature 0x008: 'MPX bounds registers' [Пн окт 2 13:04:53 2017] x86/fpu: Supporting XSAVE feature 0x010: 'MPX CSR' [Пн окт 2 13:04:53 2017] x86/fpu: xstate_offset[2]: 576, xstate_sizes[2]: 256 [Пн окт 2 13:04:53 2017] x86/fpu: xstate_offset[3]: 832, xstate_sizes[3]: 64 [Пн окт 2 13:04:53 2017] x86/fpu: xstate_offset[4]: 896, xstate_sizes[4]: 64 [Пн окт 2 13:04:53 2017] x86/fpu: Enabled xstate features 0x1f, context size is 960 bytes, using 'compacted' format. [Пн окт 2 13:04:53 2017] e820: BIOS-provided physical RAM map: [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x0000000000000000-0x000000000009dbff] usable [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x000000000009dc00-0x000000000009ffff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000000e0000-0x00000000000fffff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x0000000000100000-0x00000000cb79cfff] usable [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000cb79d000-0x00000000cb79dfff] ACPI NVS [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000cb79e000-0x00000000cb7c7fff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000cb7c8000-0x00000000cb81dfff] usable [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000cb81e000-0x00000000cc01efff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000cc01f000-0x00000000da169fff] usable [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000da16a000-0x00000000db790fff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000db791000-0x00000000db7e0fff] ACPI data [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000db7e1000-0x00000000dbf95fff] ACPI NVS [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000dbf96000-0x00000000dc4fefff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000dc4ff000-0x00000000dc4fffff] usable [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000dc500000-0x00000000dc5fffff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000f8000000-0x00000000fbffffff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000fe000000-0x00000000fe010fff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000fec00000-0x00000000fec00fff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000fee00000-0x00000000fee00fff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x00000000ff000000-0x00000000ffffffff] reserved [Пн окт 2 13:04:53 2017] BIOS-e820: [mem 0x0000000100000000-0x000000061dffffff] usable [Пн окт 2 13:04:53 2017] NX (Execute Disable) protection: active [Пн окт 2 13:04:53 2017] SMBIOS 2.8 present. [Пн окт 2 13:04:53 2017] DMI: Dell Inc. OptiPlex 7040/096JG8, BIOS 1.4.5 06/27/2016 [Пн окт 2 13:04:53 2017] e820: update [mem 0x00000000-0x00000fff] usable ==> reserved

Я совсем не понимаю, что всё это значит. max_memory_usage сейчас посмотрю

Страница 274 из 723