Vladislav
Maksim
root@truenas[~]# gpart show
=> 40 488397088 ada0 GPT (233G)
40 1024 1 freebsd-boot (512K)
1064 488374272 2 freebsd-zfs (233G)
488375336 21792 - free - (11M)
=> 40 7814037088 ada1 GPT (3.6T)
40 88 - free - (44K)
128 4194304 1 freebsd-swap (2.0G)
4194432 7809842696 2 freebsd-zfs (3.6T)
=> 40 7814037088 ada2 GPT (3.6T)
40 88 - free - (44K)
128 4194304 1 freebsd-swap (2.0G)
4194432 7809842696 2 freebsd-zfs (3.6T)
Выглядит так, что не сделали хвостик с конца. Или неважно с конца или с начала он создаётся?
Vladislav
Пожалуйста
Vladislav
Pastebin
Vladislav
Или форматируйте как код
А да, это только в ПК версии нормально выглядит
Vladislav
Ivan
Andrey
Всем привет. Подскажите для того кто в танке, что делаю не так:
fio --name=fiotest --filename=/testzfs/.tmp --size=128Gb --rw=randread --bs=8K --direct=1 --numjobs=64 --ioengine=libaio --iodepth=32 --group_reporting --runtime=60
fiotest: (g=0): rw=randread, bs=(R) 8192B-8192B, (W) 8192B-8192B, (T) 8192B-8192B, ioengine=libaio, iodepth=32
...
fio-3.25
Starting 64 processes
fiotest: Laying out IO file (1 file / 131072MiB)
Jobs: 64 (f=5): [f(4),r(1),f(38),r(2),f(6),r(1),f(6),r(1),f(5)][100.0%][r=238MiB/s][r=30.5k IOPS][eta 00m:00s]
fiotest: (groupid=0, jobs=64): err= 0: pid=3822629: Fri Sep 16 13:05:14 2022
read: IOPS=28.2k, BW=220MiB/s (231MB/s)(12.9GiB/60002msec)
slat (usec): min=5, max=14821, avg=2269.42, stdev=644.50
clat (nsec): min=1290, max=105471k, avg=70384225.28, stdev=4307655.72
lat (usec): min=271, max=109194, avg=72653.96, stdev=4379.65
clat percentiles (usec):
| 1.00th=[60031], 5.00th=[63701], 10.00th=[65274], 20.00th=[67634],
| 30.00th=[68682], 40.00th=[69731], 50.00th=[70779], 60.00th=[71828],
| 70.00th=[72877], 80.00th=[73925], 90.00th=[74974], 95.00th=[77071],
| 99.00th=[80217], 99.50th=[81265], 99.90th=[85459], 99.95th=[86508],
| 99.99th=[90702]
bw ( KiB/s): min=183507, max=239809, per=99.96%, avg=225227.59, stdev=114.92, samples=7616
iops : min=22913, max=29970, avg=28149.55, stdev=14.37, samples=7616
lat (usec) : 2=0.01%, 4=0.01%, 50=0.01%, 500=0.01%, 750=0.01%
lat (usec) : 1000=0.01%
lat (msec) : 2=0.01%, 4=0.01%, 10=0.01%, 20=0.02%, 50=0.05%
lat (msec) : 100=99.91%, 250=0.01%
cpu : usr=0.15%, sys=2.31%, ctx=1605260, majf=0, minf=24787
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=99.9%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
issued rwts: total=1689920,0,0,0 short=0,0,0,0 dropped=0,0,0,0
latency : target=0, window=0, percentile=100.00%, depth=32
Run status group 0 (all jobs):
READ: bw=220MiB/s (231MB/s), 220MiB/s-220MiB/s (231MB/s-231MB/s), io=12.9GiB (13.8GB), run=60002-60002msec
И этот же диск, но
Andrey
fio --name=fiotest --filename=/dev/nvme1n1 --size=128Gb --rw=randread --bs=8K --direct=1 --numjobs=64 --ioengine=libaio --iodepth=32 --group_reporting --runtime=60
fiotest: (g=0): rw=randread, bs=(R) 8192B-8192B, (W) 8192B-8192B, (T) 8192B-8192B, ioengine=libaio, iodepth=32
...
fio-3.25
Starting 64 processes
Jobs: 64 (f=64): [r(64)][100.0%][r=3533MiB/s][r=452k IOPS][eta 00m:00s]
fiotest: (groupid=0, jobs=64): err= 0: pid=2776780: Fri Sep 16 12:34:34 2022
read: IOPS=452k, BW=3530MiB/s (3702MB/s)(207GiB/60010msec)
slat (nsec): min=1380, max=7002.8k, avg=4005.97, stdev=28480.68
clat (usec): min=17, max=33125, avg=4526.81, stdev=3128.68
lat (usec): min=20, max=33355, avg=4530.88, stdev=3131.38
clat percentiles (usec):
| 1.00th=[ 1221], 5.00th=[ 1237], 10.00th=[ 1254], 20.00th=[ 1762],
| 30.00th=[ 2278], 40.00th=[ 2900], 50.00th=[ 3752], 60.00th=[ 4555],
| 70.00th=[ 5538], 80.00th=[ 6849], 90.00th=[ 8979], 95.00th=[11207],
| 99.00th=[14091], 99.50th=[14746], 99.90th=[16188], 99.95th=[16581],
| 99.99th=[20317]
bw ( MiB/s): min= 1125, max=11420, per=100.00%, avg=3535.42, stdev=34.50, samples=7616
iops : min=144022, max=1461881, avg=452525.89, stdev=4415.84, samples=7616
lat (usec) : 20=0.01%, 50=0.01%, 100=0.01%, 250=0.01%, 500=0.01%
lat (usec) : 750=0.01%, 1000=0.01%
lat (msec) : 2=27.14%, 4=26.54%, 10=38.94%, 20=7.36%, 50=0.01%
cpu : usr=1.25%, sys=3.37%, ctx=26751184, majf=0, minf=40744
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=100.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
issued rwts: total=27116983,0,0,0 short=0,0,0,0 dropped=0,0,0,0
latency : target=0, window=0, percentile=100.00%, depth=32
Run status group 0 (all jobs):
READ: bw=3530MiB/s (3702MB/s), 3530MiB/s-3530MiB/s (3702MB/s-3702MB/s), io=207GiB (222GB), run=60010-60010msec
Andrey
почему в 20 раз показатели различаются?
Ivan
Andrey
да, в проксе создал сторадж на /dev/nvme1n1
Andrey
ощущение что чтото не то меряю
Andrey
таки рядом есть такой же диск, но с lvm, Примерно аналогичная история, но там не уверен что правильно --filename указал
Dmitriy
что за диск?
Dmitriy
вендор модель
Andrey
Model Number: KINGSTON SEDC1500M1920G
central
а РАМ сколько?
Dmitriy
покажите
cat /sys/module/zfs/parameters/zfs_nocacheflush
Andrey
384gb
Dmitriy
какой ashift
Dmitriy
Andrey
Dmitriy
этот диск с PLP - поставьте 1
Dmitriy
у вас кэш контроллера заработает
Andrey
у меня там ещё dc500M стоят, им тоже можно?
Dmitriy
к сожалению глобально
Dmitriy
но да можно
Dmitriy
у меня такие же
Dmitriy
это тоже в 1 поставьте zfs_trim_metaslab_skip
Dmitriy
модуль zfs не будет слать команду трим при каждой перезаписи мета
Dmitriy
желательно разметку пула делать сразу с ashift=13
Andrey
почему?
Andrey
ну вообще не помогло:
fio --name=fiotest --filename=/zfstest/.tmp --size=128Gb --rw=randread --bs=8K --direct=1 --numjobs=64 --ioengine=libaio --iodepth=32 --group_reporting --runtime=60
fiotest: (g=0): rw=randread, bs=(R) 8192B-8192B, (W) 8192B-8192B, (T) 8192B-8192B, ioengine=libaio, iodepth=32
...
fio-3.25
Starting 64 processes
Jobs: 64 (f=64): [r(64)][100.0%][r=45.3MiB/s][r=5797 IOPS][eta 00m:00s]
fiotest: (groupid=0, jobs=64): err= 0: pid=3713059: Fri Sep 16 13:52:19 2022
read: IOPS=7688, BW=60.1MiB/s (62.0MB/s)(3605MiB/60016msec)
slat (usec): min=5, max=36548, avg=8318.41, stdev=4614.72
clat (nsec): min=1800, max=503356k, avg=257254245.69, stdev=43779717.52
lat (msec): min=5, max=522, avg=265.57, stdev=44.86
clat percentiles (msec):
| 1.00th=[ 186], 5.00th=[ 207], 10.00th=[ 215], 20.00th=[ 228],
| 30.00th=[ 236], 40.00th=[ 243], 50.00th=[ 249], 60.00th=[ 257],
| 70.00th=[ 266], 80.00th=[ 279], 90.00th=[ 313], 95.00th=[ 355],
| 99.00th=[ 405], 99.50th=[ 418], 99.90th=[ 447], 99.95th=[ 456],
| 99.99th=[ 472]
bw ( KiB/s): min=21072, max=77328, per=99.84%, avg=61412.92, stdev=142.72, samples=7616
iops : min= 2634, max= 9666, avg=7676.08, stdev=17.85, samples=7616
lat (usec) : 2=0.01%, 4=0.01%, 10=0.01%
lat (msec) : 10=0.01%, 20=0.01%, 50=0.04%, 100=0.06%, 250=51.50%
lat (msec) : 500=48.37%, 750=0.01%
cpu : usr=0.06%, sys=0.57%, ctx=438675, majf=0, minf=5005
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.2%, 32=99.6%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
issued rwts: total=461460,0,0,0 short=0,0,0,0 dropped=0,0,0,0
latency : target=0, window=0, percentile=100.00%, depth=32
Run status group 0 (all jobs):
READ: bw=60.1MiB/s (62.0MB/s), 60.1MiB/s-60.1MiB/s (62.0MB/s-62.0MB/s), io=3605MiB (3780MB), run=60016-60016msec
Dmitriy
данные по lspci -vv
Dmitriy
на это устройство
Dmitriy
и тогда уже полный конфиг ядра - или оно по дефолту?
Dmitriy
и пула
Dmitriy
и во время фио сделайте в другой консоли watch -n 1 "zpool iostat -vylqL 1 1 && zpool iostat -ry 1 1"
Andrey
всё по дефолту как проксмокс прописыывает
Andrey
данные по lspci -vv
e1:00.0 Non-Volatile memory controller: Kingston Technology Company, Inc. Device 5012 (rev 03) (prog-if 02 [NVM Express])
Subsystem: Kingston Technology Company, Inc. Device 5012
Physical Slot: 1
Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
Latency: 0, Cache Line Size: 64 bytes
Interrupt: pin A routed to IRQ 94
NUMA node: 1
IOMMU group: 104
Region 0: Memory at a2320000 (64-bit, non-prefetchable) [size=16K]
Expansion ROM at a2300000 [disabled] [size=128K]
Capabilities: [40] Power Management version 3
Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
Status: D0 NoSoftRst- PME-Enable- DSel=0 DScale=0 PME-
Capabilities: [50] MSI: Enable- Count=1/8 Maskable+ 64bit+
Address: 0000000000000000 Data: 0000
Masking: 00000000 Pending: 00000000
Capabilities: [70] Express (v2) Endpoint, MSI 00
DevCap: MaxPayload 512 bytes, PhantFunc 0, Latency L0s unlimited, L1 unlimited
ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset+ SlotPowerLimit 75.000W
DevCtl: CorrErr+ NonFatalErr+ FatalErr+ UnsupReq-
RlxdOrd+ ExtTag- PhantFunc- AuxPwr- NoSnoop- FLReset-
MaxPayload 512 bytes, MaxReadReq 512 bytes
DevSta: CorrErr+ NonFatalErr- FatalErr- UnsupReq+ AuxPwr+ TransPend-
LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM not supported
ClockPM+ Surprise- LLActRep- BwNot- ASPMOptComp+
LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
LnkSta: Speed 8GT/s (ok), Width x4 (ok)
TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
DevCap2: Completion Timeout: Range ABCD, TimeoutDis+ NROPrPrP- LTR+
10BitTagComp- 10BitTagReq- OBFF Via message, ExtFmt- EETLPPrefix-
EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
FRS- TPHComp- ExtTPHComp-
AtomicOpsCap: 32bit- 64bit- 128bitCAS-
DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR- OBFF Disabled,
AtomicOpsCtl: ReqEn-
LnkCap2: Supported Link Speeds: 2.5-8GT/s, Crosslink- Retimer- 2Retimers- DRS-
LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis-
Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
Compliance De-emphasis: -6dB
LnkSta2: Current De-emphasis Level: -3.5dB, EqualizationComplete+ EqualizationPhase1+
EqualizationPhase2+ EqualizationPhase3+ LinkEqualizationRequest-
Retimer- 2Retimers- CrosslinkRes: unsupported
Capabilities: [b0] MSI-X: Enable+ Count=16 Masked-
Vector table: BAR=0 offset=00002000
PBA: BAR=0 offset=00002100
Capabilities: [100 v2] Advanced Error Reporting
UESta: DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq+ ACSViol-
UEMsk: DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq+ ACSViol-
UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO+ CmpltAbrt- UnxCmplt+ RxOF+ MalfTLP+ ECRC+ UnsupReq- ACSViol-
CESta: RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
CEMsk: RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr-
AERCap: First Error Pointer: 00, ECRCGenCap+ ECRCGenEn- ECRCChkCap+ ECRCChkEn-
MultHdrRecCap- MultHdrRecEn- TLPPfxPres- HdrLogCap-
Andrey
данные по lspci -vv
HeaderLog: 00000000 00000000 00000000 00000000
Capabilities: [158 v1] Secondary PCI Express
LnkCtl3: LnkEquIntrruptEn- PerformEqu-
LaneErrStat: 0
Capabilities: [178 v1] Latency Tolerance Reporting
Max snoop latency: 0ns
Max no snoop latency: 0ns
Capabilities: [180 v1] L1 PM Substates
L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2- ASPM_L1.1- L1_PM_Substates+
PortCommonModeRestoreTime=10us PortTPowerOnTime=10us
L1SubCtl1: PCI-PM_L1.2- PCI-PM_L1.1- ASPM_L1.2- ASPM_L1.1-
T_CommonMode=0us
L1SubCtl2: T_PwrOn=10us
Kernel driver in use: nvme
Kernel modules: nvme
Andrey
и пула
пул тоже с гуя создаю, разве что компрессию lz4 указываю
Dmitriy
по физики проблем не вижу - 8GT/s без деградации
Dmitriy
acr_summary > arc_summary.txt и файл приложите если чат разрешает
Andrey
похоже опечатался :(
Andrey
и оно тестировал зеркало dc500m
Andrey
а там похоже у нег загрузка приличня
Andrey
хотя нет, опечатка была только где 60мб /с
Andrey
и во время фио сделайте в другой консоли watch -n 1 "zpool iostat -vylqL 1 1 && zpool iostat -ry 1 1"
Every 1.0s: zpool iostat testzfs -vylqL 1 1 && zpool iostat testzfs -ry 1 1 pvecore6: Fri Sep 16 14:11:42 2022
capacity operations bandwidth total_wait disk_wait syncq_wait asyncq_wait scrub trim syncq_read syncq_write asyncq_read asyncq_write scrubq_read trimq_write
pool alloc free read write read write read write read write read write read write wait wait pend activ pend activ pend activ pend activ pend activ pend activ
----------- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- -----
testzfs 128G 1.61T 24.9K 71 3.11G 840K 3ms 142us 414us 51us 1ms 3us - 91us - - 51 10 0 0 0 0 0 0 0 0 0 0
nvme1n1p1 128G 1.61T 24.9K 71 3.11G 840K 3ms 142us 414us 51us 1ms 3us - 91us - - 50 10 0 0 0 0 0 0 0 0 0 0
----------- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- -----
testzfs sync_read sync_write async_read async_write scrub trim
req_size ind agg ind agg ind agg ind agg ind agg ind agg
---------- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- -----
512 0 0 0 0 0 0 0 0 0 0 0 0
1K 0 0 0 0 0 0 0 0 0 0 0 0
2K 0 0 0 0 0 0 0 0 0 0 0 0
4K 0 0 0 0 0 0 0 0 0 0 0 0
8K 0 0 0 0 0 0 0 0 0 0 0 0
16K 0 0 0 0 0 0 0 0 0 0 0 0
32K 0 0 0 0 0 0 0 0 0 0 0 0
64K 0 0 0 0 0 0 0 0 0 0 0 0
128K 23.9K 0 0 0 0 0 0 0 0 0 0 0
256K 0 0 0 0 0 0 0 0 0 0 0 0
512K 0 0 0 0 0 0 0 0 0 0 0 0
1M 0 0 0 0 0 0 0 0 0 0 0 0
2M 0 0 0 0 0 0 0 0 0 0 0 0
4M 0 0 0 0 0 0 0 0 0 0 0 0
8M 0 0 0 0 0 0 0 0 0 0 0 0
16M 0 0 0 0 0 0 0 0 0 0 0 0
----------------------------------------------------------------------------------------------
Andrey
Dmitriy
не то
Dmitriy
мне нужен вывод результатов
Dmitriy
и раз уже начали разбираться, вывод
smartctl -x /dev/nvme1n1
smartctl -x /dev/nvme0n1
cat /proc/mdstat
Dmitriy
все в виде текстовых файлов, что бы не загромождать чат
Dmitriy
сразу поставьте nvme-cli
apt install nvme-cli
Dmitriy
Dmitriy
Dmitriy
у вас каждый блок 8к читается блоками по 128 к
Dmitriy
отсюда высокие задержки и низкая скорость
Dmitriy
создайте датасет с размером блока 8к и протестируйте снова
Dmitriy
с указанием тестового файла на созданном датасете
Dmitriy
в любом случае жду вывод smartctl
Andrey
Dmitriy
не вижу в выводе какая версия zfs
ZFS Subsystem Report Fri Sep 16 10:35:57 2022
Linux 5.4.195-1-pve 2.0.7-pve1
Machine: pv-d (x86_64) 2.0.7-pve1
Dmitriy
моя в выводе 2.0.7
Andrey
zfs version
zfs-2.1.2-pve1
zfs-kmod-2.1.2-pve1
Dmitriy
а что за релиз pve? вроде в крайнем уже 2.1.5
Dmitriy
покажите вывод
smartctl -x /dev/nvme1n1
smartctl -x /dev/nvme0n1
Dmitriy
интересен этот раздел
Supported LBA Sizes (NSID 0x1)
Id Fmt Data Metadt Rel_Perf
0 - 512 0 2
1 - 512 8 2
2 - 512 16 2
3 + 4096 0 0
4 - 4096 8 0
5 - 4096 64 0
6 - 4096 128 0
Dmitriy
и zpool get all
Dmitriy
все в текстовые файлы
Dmitriy
Dmitriy
для примера один из самсунгов 983