Pttf8-65
Этот пк чисто хранилка дисков
Pttf8-65
Вот он "домашний пк" в процессе переезда из шкафа, надеюсь к понедельнику закончить. (Сомневаюсь)
Nikita
Сначала autoexpand, потом увеличить раздел.
я почему то был уверен, что это не опция, а команда... пруфов, что когда то было иначе не нашел. странно.
Станислав
я почему то был уверен, что это не опция, а команда... пруфов, что когда то было иначе не нашел. странно.
Если применить в таком порядке, то потом ещё нужна команда для расширения, то есть авто не сработает. Но она не всегда помогает, приходится перезапускать сервер
Alexander
Привет, такой вопрос можно ли добавить в ZFS пулл 2 ssd в raid1? У меня получается просто добавить 2 диска pool alloc free read write read write ---------- ----- ----- ----- ----- ----- ----- zroot 5.23G 209G 2 3 59.9K 64.8K mirror-0 5.23G 209G 2 3 59.9K 64.8K ada0p4 - - 1 1 29.7K 32.4K ada1p4 - - 1 1 30.2K 32.4K cache - - - - - - nda0 47.1M 27.2G 0 1 739 75.5K nda1 80.7M 27.2G 0 1 739 127K ---------- ----- ----- ----- ----- ----- ----- zpool add zroot cache mirror nda0 nda1 - такая команда возвращает ошибку invalid vdev specification: cache requires at least 1 devices
Alexey
Кэш не работает в миррор раид режимах
Alexander
Зачем тебе кэш на чтение в 1-м рейде? Я бы начал с этого
Лежали 2 SSD optane и пришла идея как то это использовать, получилось создать пулл в raid1, думал с кешам получиться
Alexander
Ну так добавь их два
Да я так и сделал, не знал что не получится в зеркало объединить SSD для кеша
Alexander
Ты так и не ответил, зачем зеркало?
Надежнее и вроде скорость чтения повыше будет
Vladislav
Надежнее и вроде скорость чтения повыше будет
Эрм, нет? И надёжнее в плане? У тебя L2ARC даже если умирает ты не теряешь ровным счётом ничего
Alexander
Эрм, нет? И надёжнее в плане? У тебя L2ARC даже если умирает ты не теряешь ровным счётом ничего
Да, это я потом понял что смысла небыло, я недавно начал работать с zfs
Rabinovitch
Сообщество, почему после команды zpool offline диск остаётся в состоянии FAULTED, хотя по идее должен стать OFFLINE?
Antoniodba
Привествую, коллеги. Я правильно понимаю что logicalused показывает размер данных без сжатия располагаемых на zfs?
𝚜𝚎𝚗𝚜𝚎𝚖𝚊𝚍
Ни в одном другом чате, не видел чтобы столько девушек хотели попасть в чат!
Combot
Виктор был(а) забанен(а)! Причина: CAS-бан.
Combot
V A L E R I A был(а) забанен(а)! Причина: CAS-бан.
Combot
Александр был(а) забанен(а)! Причина: CAS-бан.
Combot
Диана был(а) забанен(а)! Причина: CAS-бан.
Combot
Андрей был(а) забанен(а)! Причина: CAS-бан.
Combot
Дана был(а) забанен(а)! Причина: CAS-бан.
Combot
Александр был(а) забанен(а)! Причина: CAS-бан.
Ivan
Вышел релиз 2.3.1. https://github.com/openzfs/zfs/releases/tag/zfs-2.3.1
Free
Что с чатом случилось? Кроме этого ничего не вижу. Или меня кто-то забанил, а потом восстановили без истории чата? PS скриншот не добавляется 😞
Free
Alex
регулярно такое у телеги бывает, прокашляется. либо само, либо после рестарта клиента.
Free
регулярно такое у телеги бывает, прокашляется. либо само, либо после рестарта клиента.
О, так скриншот был (на время?) опубликован??? У меня и его нет в чате...
Free
всё есть, без аномалий.
После рестарта телеги история появилась. Правда, моего скриншота так и не вижу
Combot
Дмитрий был(а) забанен(а)! Причина: CAS-бан.
Combot
Юлия был(а) забанен(а)! Причина: CAS-бан.
Combot
Ирина был(а) забанен(а)! Причина: CAS-бан.
Combot
Маргарита Орлова был(а) забанен(а)! Причина: CAS-бан.
Combot
Карина был(а) забанен(а)! Причина: CAS-бан.
Combot
Артур Кузьмин был(а) забанен(а)! Причина: CAS-бан.
Combot
София Романова был(а) забанен(а)! Причина: CAS-бан.
Combot
Анна был(а) забанен(а)! Причина: CAS-бан.
Combot
Екатерина был(а) забанен(а)! Причина: CAS-бан.
Dmitry
Добрый день меня прислали к вам из чата сисадминов
Dmitry
Добрый день! Вопрос по серверу, есть сервер на 2011 сокете с 256 гб ОЗУ, есть 2 u.2 nvme диска на 1.96 гб, есть 6х4tb 870 evo, и есть возможность ещё установить 2х1tb990 pro Хочется его доработать до нормальной файлохранилки Планируется докупить 8tb-seagate-barracuda-st8000dm004 И отправить их в raidz3 ну и накатить zfs с дедубликацией(ну и наверное сжатием), посоветуйте как ускорить это все добро до приемлемого уровня производительности? Куда кинуть l2 кеш zfs и куда кинуть кеш намерений Так же я что то слышал о zfs dedup disk, но не нашёл инфы Система уже стоит на одном из дисков, так что под систему ничего не нужно
Dmitry
Добрый день. Тут ошибка, должно быть наоборот) Сжатие обязательно, а вот дедуб не нужно
Dedup требуется для сохранения инфраструктуры в 2 тб 3 раза в неделю
Станислав
https://habr.com/ru/companies/vk/articles/863904/
Станислав
Dedup требуется для сохранения инфраструктуры в 2 тб 3 раза в неделю
Почитайте про ссылке. А на чём хранятся эти 2Тб?
Dmitry
На текущих задачах у меня dedup ratio уже выше 10
Dmitry
Почитайте про ссылке. А на чём хранятся эти 2Тб?
Raid 6 из 10 дисков по 4 тб с промежуточным хранением на ssd sata для бекаба из nvme ssd со скоростью 10гб сек(фактически 5)
Dmitry
Ну оно работает, так что вопрос до расширения до нормальной структуры Как я понял l2 кеш может сохранять блоки данных для быстрого доступа к ним и быстрого внесения их в таблицу дедубликации
Dmitry
Пока fast dedup точно не подойдёт, а лучше использовать стандартную архитектуру, не хочу нарваться на детские болячки новой фичи
Artem
У вас ксть 2x2Tb nvme ssd и 6x4=24Tb sata ssd (для бекапа?). Зачем вам в такой схеме харды?
Dmitry
У вас ксть 2x2Tb nvme ssd и 6x4=24Tb sata ssd (для бекапа?). Зачем вам в такой схеме харды?
Так как ssd используются как кеш не только для бекапа, но и шифрования, и других задач на data сервере, хочу переложить все функции на zfs которые я делаю через скрипты
Dmitry
В общем, хочу ёмкость, скорость, надёжность и свалку бекапов, все в одном и подешевле
Dmitry
Синхронизированный кеш намерений на скорость записи, l2 кеш на скорость дедубликации, ОЗУ в виде 256 гигов на в целом скорость raidz3 отвечает за надёжность как и зрения кодовая база open zfs
Dmitry
Я может отстал от жизни, но по моему пониманию дедупу нужна память. Зачем ему l2.
Туда записываются самые часто используемые блоки с hdd, dedup будет обращаться к ним, а не к hdd напрямую
Dmitry
Снепшоты используйте а не дедупликацию
А как они позволят мне хранить 100 копий 1 тб данных?
Alexander
А как они позволят мне хранить 100 копий 1 тб данных?
А зачем вам изначально хранить 100 копий?
Dmitry
А зачем вам изначально хранить 100 копий?
Что бы получать к ним доступ, а именно к тем данным что уже изменились
Alexander
Вы не копии хотите хранить а бэкапы
Alexander
Ну так это вы описываете снепшоты
Станислав
Что бы получать к ним доступ, а именно к тем данным что уже изменились
Клон снимка делаете и вот вам доступ на запись/чтение
Станислав
А если только чтение нужно, то и клон не нужен
Dmitry
Клон снимка делаете и вот вам доступ на запись/чтение
Требования хранение данных за 3 года ежедневного бекапа с произвольным доступом в любую секунду
Alexander
Делайте снепшоты и это будет ридонли копия на момент снепшота, надо ее быстро превратить в отдельный датасет для записи и менять то делаете клон
Alexander
Никакой дежупликацим не надо, но лучше сделать внешний сервер и туда отправлять снепшоты, инкременипльно
Dmitry
Это обычные снепшоты
Тогда как их хранить на отдельном устройстве?
Alexander
Смотрите zrepl или syncoid
Станислав
Смотрите zrepl или syncoid
Кажется у человека на иcходной машине не zfs
Alexander
Тогда как их хранить на отдельном устройстве?
Вы не понимаете как работает zfs, вам бы сперва с основах разобраться