你们会对 NAS 进行磁盘碎片整理吗? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要把任何和邀请码有关的内容发到 NAS 节点。

邀请码相关的内容请使用 /go/in 节点。

如果没有发送到 /go/in,那么会被移动到 /go/pointless 同时账号会被降权。如果持续触发这样的移动,会导致账号被禁用。
OumaeKumiko
V2EX    NAS

你们会对 NAS 进行磁盘碎片整理吗?

  •  
      OumaeKumiko 2025 年 12 月 17 日 2726 次点击
    这是一个创建于 48 天前的主题,其中的信息可能已经有所发展或是发生改变。

    最近在把自己威联通 quts hero (威联通 zfs ) 8 盘 raidz2 的影音文件通过 smb 移动到另一个 nas 里,结果有的时候拷贝速度掉到只有 20MB/s……都是大文件。我感觉应该是磁盘碎片的问题。

    我用过群晖,群晖有一个磁盘碎片整理的功能,但是威联通没有。感觉要整理磁盘碎片的话那就只能全盘内容迁移然后再搬回来了吧。

    感觉通过磁盘碎片整理应该能提高速率

    27 条回复    2025-12-18 10:38:13 +08:00
    TimPeake
        1
    TimPeake  
       2025 年 12 月 17 日
    千兆内网,两侧都是 nvme 固态,smb 复制到 本地电脑只有不超过 10M 的速度,此刻正在郁闷中....
    Terry05
        2
    Terry05  
       2025 年 12 月 17 日
    1 楼怕不是网络有问题,得排查下,估计有一侧是 100M 的规格了,网卡通常没问题,有可能是网线的问题
    ntedshen
        3
    ntedshen  
       2025 年 12 月 17 日
    影音文件这种东西下下来就不改的,哪来的碎片。。。
    担心这个感觉还不如看看是不是缓存爆了或者 cpu 过热了或者怎么了。。。
    mikeluckybiy
        4
    mikeluckybiy  
       2025 年 12 月 17 日 via Android
    只有 win 系统有磁盘碎片一说,从没没听说过有哪个 linux 需要碎片整理的
    cnbatch
        6
    cnbatch  
       2025 年 12 月 17 日   1
    Reddit 几年前就有过相关讨论:
    https://www.reddit.com/r/zfs/comments/mfuyy2/zfs_fragmentation_solutions_is_resilvering_an/

    里面有人提到了个碎片检测工具:
    https://github.com/dim-geo/zfs_frag

    OP 可以试下
    FrankAdler
        7
    FrankAdler  
       2025 年 12 月 17 日 via Android
    @TimPeake 你这肯定有问题,我 hdd 走 wifi 速度都能跑 50-60M
    busier
        8
    busier  
       2025 年 12 月 17 日 via Android
    别你觉得应该是磁盘碎片的问题

    解决问题靠蒙的么

    既然是大文件 显然碎片影响可能性非常小
    TimPeake
        9
    TimPeake  
       2025 年 12 月 17 日
    @Terry05

    ```
    [ 5] 9.01-10.01 sec 113 MBytes 941 Mbits/sec
    - - - - - - - - - - - - - - - - - - - - - - - - -
    [ ID] Interval Transfer Bitrate
    [ 5] 0.00-10.01 sec 1.07 GBytes 915 Mbits/sec sender
    [ 5] 0.00-10.03 sec 1.07 GBytes 912 Mbits/sec receiver
    Receiver threads stopped

    iperf Done.
    ```

    iperf 测速好像没问题。之前是复制 50G 左右的 tar.gz 文件 速度 10 以下。现在模拟生成了个 1G 的文件,复制到本地好像又没问题了,110M/S
    dilidilid
        10
    dilidilid  
       2025 年 12 月 18 日
    zpool list 能看到碎片化程度,你可以进终端看看?不过大文件碎片化的概率很低
    WizardLeo
        11
    WizardLeo  
       2025 年 12 月 18 日   1
    威联通的 zfs 是传言有很严重的性能问题,如果 op 怀疑是文件碎片的话可以考虑试试看
    zfs rewrite /mnt/pool/dataset/data_dir
    zfs2.4 的新版本命令,可以把文件重写到原位置,可以减轻文件碎片问题
    mayli
        12
    mayli  
       2025 年 12 月 18 日
    nvme 碎片没影响的,大概率是 smb 或者网络 bug 了
    OumaeKumiko
        13
    OumaeKumiko  
    OP
       2025 年 12 月 18 日
    @WizardLeo #11 没有,我从 12 盘 raid z2 的 HC550 HDD 阵列内部拷数据到 2 盘 NVME raidZ1 阵列,缓存的时候速度在 550MB-750MB/s ,性能应该还好,虽然达不到理想情况但是也够用了
    OumaeKumiko
        14
    OumaeKumiko  
    OP
       2025 年 12 月 18 日
    @mayli #12 不是 NVME ,是 HDD
    OumaeKumiko
        15
    OumaeKumiko  
    OP
       2025 年 12 月 18 日
    @ntedshen #3 没有,是两个 NAS 的 HDD 阵列之间 SMB 拷贝,CPU 温度也没过热
    OumaeKumiko
        16
    OumaeKumiko  
    OP
       2025 年 12 月 18 日
    @busier #8 那应该是啥……
    yangzzzzzz
        17
    yangzzzzzz  
       2025 年 12 月 18 日
    极空间自带这个功能
    sojourner
        18
    sojourner  
       2025 年 12 月 18 日
    @busier “大胆假设,小心求证。”这是极为科学的方法。
    xdzhang
        19
    xdzhang  
       2025 年 12 月 18 日
    我群晖自己磁盘间拷贝是 150-200M 每秒,2 个 nas 之间网络满速.
    nkidgm
        20
    nkidgm  
       2025 年 12 月 18 日
    我 nas 上纯 sata ssd 了,不用磁盘整理,平时写入不高,都是跑一些小系统,3 个月 trim 一次吧。
    fish2050
        21
    fish2050  
       2025 年 12 月 18 日
    15 年以前最爱干的事情就是没事跑一下磁盘碎片整理
    geniussoft
        22
    geniussoft  
       2025 年 12 月 18 日 via iPhone
    你要看看资源管理器里磁盘占用率,可能是一块硬盘不行了
    touchfishcc
        23
    touchfishcc  
       2025 年 12 月 18 日
    @TimPeake #9 会不会 50G 没命中缓存,1G 在缓存里命中了
    nemoc
        24
    nemoc  
       2025 年 12 月 18 日
    磁盘碎片清理是针对机械硬盘的,ssd 不需要,ssd 使用碎片清理反而有损 ssd 寿命
    ntedshen
        25
    ntedshen  
       2025 年 12 月 18 日
    @OumaeKumiko 我倒是碰到过用 rclone 在 truenas 上跑的 webdav ,用 rclone sync 备份。。。
    时间长了速度是这个数:
    Transferred: 556.553 GiB / 556.553 GiB, 100%, 1.717 MiB/s, ETA 0s

    解决方案是关掉所有缓存然后打开--direct-io
    xclimbing
        27
    xclimbing  
       2025 年 12 月 18 日
    我觉得跟磁盘碎片没关系。直接跟 zfs 有关系。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2911 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 29ms UTC 10:30 PVG 18:30 LAX 02:30 JFK 05:30
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86