899的1TB值么?M9peGN Plus 1TB评测
本内容来源于@什么值得买APP,观点仅代表作者本人 |作者:gaojie20
前言
因为前期我写作了两篇SSD的评测类文章:
一直觉得希望对Plextor M9peGN Plus 1TB这个型号有个对比的上手体验,网传这个型号要性能偏低于512GB,因为手上正好有一些可以对比的盘,所以逮到有空就忙里偷闲测试了一下对比数据,电脑里放了很久,感觉这个产品都快退市了,再不放出来以后放出来都没有意义了,为了不让这些数据烂在我的硬盘里,所以才有了这篇文章。
开箱
▲包装正面
▲包装背面
▲包装侧面1
▲包装侧面2
▲开盒
▲一眼入目,看到标签贴在背面的裸板上,就说明这颗1TB的SSD是单面设计。
▲盘体背面
▲盘体正面
▲缓存:NANYA NT6CL256M32AM-H1
DRAM采用一颗NANYA的NT6CL256M32AM-H1,规格为LPDDR3-1866,单颗容量为1GB。
▲主控:MARVELL 88SS1092
▲Marvell 88SS1092主控内部集成了三核ARM Cortex-R5 Cpu,主频500M,支持8通道,每通道支持最大8CE,总共最大支持64CE。
关于Marvell 88SS1092和前代M9P使用的1093主控,从构架图来看是看不出任何区别的,功能也基本一致,唯一被书面化的区别是DRAM支持容量,1092支持8GB,而1093支持2GB,从这点可以粗略判断出,1092支持的NAND容量大致在8TB左右,而1093则2TB到顶。随着BiCS4乃至BiCS5的NAND堆叠层数越来越多,所以单Die容量越来越大,这就导致单颗NAND的容量越来越大,所以单盘8TB可能很快到来,未雨绸缪,厂家也不得不放弃1093而转向1092主控的调试,提前进入大容量SSD的战备中去,这也是1092主控存在的价值和意义。
▲闪存:Kioxia TH58LJT2T24BAEF(BICS4) x2
NAND使用两颗Kioxia 96层BICS4 3D TLC原厂闪存,型号为TH58LJT2T24BAEF,单颗512GB,8Die封装,接驳的时候使用2CE。
▲Kioxia BiCS4闪存除了堆叠层数相比上一代BiCS3的64层增加到96层之外,BiCS4还首次应用了Toggle 3.0闪存接口,并由此带来了带宽与节能方面的优化。
▲Toggle 3.0接口传输带宽从2.0的533MT/s提高到800MT/s(使用TSOP封装时为400MT/s),这意味着使用了Toggle 3.0的BiCS4闪存比BiCS3闪存速度快。
工作电压则从BiCS3的3.3/1.8V降低至1.8/1.2V,这意味着使用了Toggle 3.0的BiCS4闪存比BiCS3更低功耗,从而带来更多温度上的优势。
▲3D闪存将原本平面排列的记忆单元改为垂直方向,不同层面之间通过穿孔联系起来,这个构造我们叫做Die,Kioxia TH58LJT2T24BAEF中96层堆叠的3D闪存单Die容量为64GB。
▲构造Die只是构造闪存的第一部分,第二部分还要多层叠Die,最终单个闪存颗粒可得到更大的可用容量,Kioxia TH58LJT2T24BAEF就是8Die堆叠而成,所以最终容量为64GBX8=512GB,但是这颗NAND是2CE的,BiCS4和BiCS3有一个较大的区别在CE上,我们拿3颗NAND对比一下:
▲M9PeGN Plus 1TB ,正面板载2颗Kioxia TH58LJT2T24BAEF(BICS4 512GB)
▲Kioxia TH58LJT2T24BAEF(BICS4)/512GB/8die/2CE
▲M9PeGN Plus 512GB ,正面板载2颗Kioxia TH58LJT1T24BAEF(BICS4 256GB)
▲闪存:Kioxia TH58LJT1T24BAEF(BICS4)/256GB/8die/2CE
▲M9PeGN 1TB ,板载4颗Toshiba TH58TFT1T23BAEF(BICS3 256GB),正反面各两颗
▲Toshiba TH58TFT1T23BAEF(BICS3)/256GB/8die/4CE
同为BiCS4 NAND的Kioxia TH58LJT2T24BAEF(512GB)和TH58LJT1T24BAEF(256GB)CE数量一样都是2,Die数量一样都是8,但是Die的容量翻倍了,理论上Die容量越大,性能会有少许提升,所以M9PeGN Plus 1TB和512GB性能应该差距不大。
256GB容量的BiCS4 NAND TH58LJT1T24BAEF(256GB)的CE数量只有BiCS3 NAND TH58TFT1T23BAEF(256GB)一半,其实也好理解:主控可接驳的CE数量是有限的,缩减NAND的CE,能让目前的主控可以不修改或者小幅修改就可以把SSD容量从最大2TB做到翻倍乃至更大。
从M9PeGN 1TB使用四颗256GB的BICS3就可以看出在NAND使用型号上,Plextor当时其实并拿不到单颗512GB容量的BICS3 NAND,所以只有退而求其次使用四颗组成双面,其实BICS3有一颗TH58TFT3T23BAEG可以达到单颗1TB容量,但是这颗当时的Toshiba是几乎不对外出售的。
而Toshiba变成Kioxia后,Kioxia收购了Plextor,在资源的倾斜方面明显给了更多的支持,所以M9PeGN Plus 1TB使用两颗512GB的BICS4组成单面,这样的设计布局明显更加合理,外加HeatSink散热片所起到的效果会更好。
▲不谈定位和性能就随便看下NAND的使用,很多人说,TOSHIBA RD500 1TB亲儿子也就用了8颗128GB的BICS4 NAND,并没有使用到512GB单颗的BICS4 NAND,可见Kioxia对Plextor品牌的看重。不同人有不同的观点,我不否认上述言论,但是我个人基于技术层面的分析是:因为RD500使用了群联PS5012-E12S的定制版主控,而RD500系列的主要方向是性能而不是温度和性能的均衡性,所以为了性能塞满这个主控需要大量的堆Die和CE的数量,因为M.2 PCB的容积有限,最大就是正反面各4颗共8颗NAND,所以要在1TB容量打造出最佳效能,只能用128GB x8的NAND组合形式,缺点就是温度高,固件调试开发难度较大,而且其和群联合作的定制版主控SoC可能需要改动后重新流片。
其实我更期待Plextor可以拿到Kioxia BICS4 1TB乃至2TB单颗的NAND,制造出2TB乃至4TB的M.2 单面SSD。既然存储这条路如此风云诡谲异常难走,那为何不做出一些在市场有领先优势的产品出来给自己的品牌增加口碑和砝码呢?
测试测试平台
配置:
CPU:Intel Core I9 10900K
主板:AsRock Z490 Phantom GamingI-ITX/TB3
内存:Gskill DDR4 3200 C16 Triden Z 16GBX2
M.2:Plextor M9PeGN 1TB
M.2:Plextor M9PeGN Plus 1TB
散热:CoolerMaster ML240
显卡:Nvidia Quadro RTX4000
电源:SliverStone SX700-G
机箱:NCASE M1 V5
系统:MircoSoft Windows 10 Pro X64 1909
系统:Ubuntu 19.04 X64
WINDOWS测试部分SMART
▲CrystalDiskiinfo 8.3.2检测的SMART信息
性能定标
▲M9PeGN Plus 1TB的官标性能我相信很多人测试过,但是估计没多少朋友能摸到随机读写的IOPS极限,测试条件很关键,首先官方说他们使用的测试工具是CrystalDiskMark 5.0.2 和 IOmeter 1.1.0,测试硬件Z390,操作系统WIN10专业版X64,自己也可以尝试测试所有QD深度和T线程数,可以摸到了这个极限,如下图
▲CrystalDiskMark 5.0.2的持续读写使用QD32T1的默认设置,随机读写使用QD32T8的条件,可以非常接近官标所标识的UP TO的最大值:
Sequential Read [持续读取](Q= 32,T= 1) : 3420.579 MB/s 达标
Sequential Write [持续写入](Q= 32,T= 1) : 2120.358 MB/s 略低于标准
Random Read 4KiB [4K随机读取](Q= 32,T= 8) : 1552.715 MB/s [379080.8 IOPS] 达标
Random Write 4KiB[4K随机写入] (Q= 32,T= 8) : 1242.543 MB/s [303355.2 IOPS] 略低于标准
这个数值已经非常接近官标的UP TO最大值。
这里的随机读写受到四个因素影响:
1、QD深度
2、测试中使用的CPU线程数
3、CPU主频
4、主板芯片组的NVME磁盘效能
简单来说,主板芯片组的nvme磁盘效能越好,CPU的主频越高,所获得的随机写入速度往往越高,这里测试所使用的线程数其实并不是开越多越好,开多开少都会产生IOPS的下降,对这个盘而言只有T8线程才是刚刚好。QD深度也是一样,开多开少一样会影响IOPS,所以官标的这个UP TO的最大值才可以溯源,但是我个人认为1TB的这个官标的写入部分定的还是有点虚高的。
天堂和地狱
有了以上的经验,我有点怀疑官方针对4K QD32 T8有特殊优化,所以继续用这种天堂和地狱的手法进行其他软件和版本的对比,结果如下:
▲AS SSD Benchmark 1.8默认设置下的空盘1GB数据块和95%满盘下10GB数据块的测试对比,可以很直观反应磁盘最好的表现和最差的表现。4K随机读写的衰减和延迟的暴增是显而易见的存在,看起来仍在可接受范围内。
▲CrystalDiskMark 5.0.2 默认设置下的空盘1GB数据块和95%满盘32GB数据块的测试对比,配置使用默认设置(持续和随机读写Q1T1),32GB数据块的话从数据来看已经爆掉了SLC Cache了,可以很直观反应磁盘最好的表现和最差的表现。4K随机读写和持续读写均发生不同程度的下降,不过貌似看起来情况还不差。
不同的软件,不同的版本,不同的线程,不同的深度在跑这种 天堂和地狱 的测试中,表现也不尽相同,包括官方FW针对CrystalDiskMark 5.0.2的4K QD32 T8感觉也是做了优化在其中的。但是其实这些都不影响主要的权重性能,至少这种程度的天堂到地狱的衰减是在可接受范围。在NTFS桌面性能相对最差的情况中,依然有这样的性能,四个字:东西规矩。
SSD的固件开发就如同一个天平,主控的CPU资源有限,NAND的实际读写能力有限,SLC Cache的大小有限,合理调度这三方面的性能满足消费级大部分使用需求才是最重要的。
这个测试带我们走过厂商宣称的最好效能和我们实测的最差情况下的效能参数对比,体现了一个SSD在3D TLC NAND调教、主控固件平衡以及盘内容量大部分写入情况下的综合能力。
TRIM CHECK
TRIM CHECK是一款很实用的检测SSD是否TRIM生效状态的软件,TRIM指令让操作系统可以告诉固态驱动器哪些数据块是不会再使用的;否则SSD控制器不知道可以回收这些闲置数据块,TRIM可以减少写入负担,同时允许SSD更好地在后台预删除闲置的数据块,以便让这些数据块可以更快地预备新的写入。当然光操作系统支持TRIM不行,还需要SSD的固件支持。
▲向SSD里写入一个16M的文件,这文件头的前16位字节如上图白色区域所表示,这也是该文件唯一的文本字符串,然后将其删除,如果TRIM工作,控制器也将删除这个数据,这时候软件让你等待大约20秒后然后按ENTER继续,然后关闭软件再次打开。
▲再次打开软件,提示原白色区域的字节已经被0所填充,说明主控固件的TRIM机制有效。
SLC Cache验证
DATAWRITE是我的一个程序员朋友pufer在谈笑间写出的一个小程序,用于验证2D 3D TLC真实写入速度的。规则是使用随机模式QD1深度随机往SSD里面以1GB数据块大小为单位写入并且反馈即时的写入速度,这个软件当时我们开玩笑说的是,大部分的测试软件都在RAW格式下测试写入速度有失偏颇,那么我们能否直观一些在NTFS格式下进行一些动态写入以获得初略的2D 3D TLC NAND真实的写入速度评估,这就是这个软件编写的初衷。
▲很直观,写入在55GB附近开始掉速,这就是大致的SLC Cache容量,之后的写入速度是稳定在500~600MB/S左右。
URWTEST
▲URWTEST这个软件和前面的DATAWRITE有异曲同工之妙,不同的是他是使用随机模式QD1深度随机往SSD里面以2GB数据块大小为单位写入并且反馈即时的写入速度,写满了盘之后可以进行一次数据校验,校验的过程就是随机读取的过程,而校验的结果就是数据完整性的检测。这个测试更接近我们日常的应用等级。
SNIA PTS评估验证
前面的测试都在NTFS格式下的桌面环境中测试,由于M9PeGN Plus 1TB 1.01版本固件的平衡能力,无法将其打落到到NAND本身的实际写入速度,即使在桌面环境的测试看起来结果还是不错的,我还是想看一下这个SSD是否能抗住企业级SSD标准化测试的残酷考验。
▲全球网络存储工业协会(Storage Networking Industry Association,SNIA)是成立时间比较早的存储厂家中立的行业协会组织,宗旨是领导全世界范围的存储行业开发、推广标准、技术和培训服务,增强组织的信息管理能力。作为一家非盈利的行业组织,拥有420多家来自世界各地的公司成员以及7100多位个人成员,遍及整个存储行业。它的成员包括不同的厂商和用户,有投票权的核心成员有Dell、IBM、NetApp、EMC、Intel、Oracle、FUJITSU、JUNIPER、QLOGIC、HP、LSI、SYMANTEC、HITACHI、Microsoft、VMware、Huawei-Symantec十五家,其他成员有近百以上,从成员的组成可以看出,核心成员来自核心的存储厂商,所以SNIA就是存储行业的领导组织。在全球范围SNIA已经拥有七家分支机构:欧洲、加拿大、日本、中国、南亚、印度以及澳洲&新西兰。
Solid State Storage Performance Test Specification Enterprise v1.0是SNIA于2011年给Enterprise SSD都制定了Performance Test(性能测试)的规范,可以到其网站下载。
很少有人将一个消费级SSD推到极限的情况下去评估Perfermance效能,因为大部分的情况是掉成狗,有很多厂家是很忌讳使用SINA的标准SSD测试规范对他们的产品进行评估的,这个测试会将一切的外部加成全部忽略掉,将其打落到NAND本质的速度,进行严格的稳定态测试,如果性能浮动太大的话,可能永远无法达到稳定态直到测试中断,或者如果EARSE机制偶发性失效出现问题,这个测试也会中断,所以不是什么盘都能得到最终的测试结果,很多盘没跑完测试就已经被强制中断测试了,所以我很想知道这个盘以何种姿态通过测试或者不通过。
在SNIA组织定义的规范中,规范了如何测试闪存设备或固态存储。业界希望有一种来比较SSD的科学方法,这也是需要SNIA测试规范的原因。SSD的写入性能在很大程度上取决于NAND的写入历史。SSD一般有三个写阶段:
1、FOB(全新从盒子里拿出来的状态)
2、Transition(过渡)
3、Steady State(稳定状态)
▲以上图例来自SINA PTS 1.1测试规范
Transition(过渡)过渡是FOB和稳态的良好表现之间的阶段。大多数情况下,性能会随着时间的推移而持续下降,直到达到稳定状态为止。SNIA PTS1.1的测试规范则很严格的监控了FOB到稳定态的每一个阶段,以及评估标准帮你去确认你的企业级SSD确实达到了稳定态,所以根据以上溯源我们有了如下的操作:
软件系统及设置
操作系统 : Ubuntu 19.04 Disco Dingo (development branch)
内核版本 : 5.0.0-11-generic
测试软件: fio-3.12
Number of jobs: 2
Number of outstanding IOs (iodepth): 32
为了避免在T8线程钻到Plextor优化的套路里跑出很华丽的IOPS,所以这次使用了T2线程,进行测试。双核环境我相信是目前最广普的环境了,因为桌面环境下的固件优化后的高值IOPS我看够了,所以我想看最差的表现。
1、IOPS测试
测试方法
进行Secure Erase安全擦除
预处理:128K持续写入双倍SSD容量
每一轮测试包含.512B,4K,8K,16K,32K,64K,128K,以及1MB数据块大小,每个数据块在100%,95%,65%,50%,35%,5%和0%运行读/写混合测试,各为一分钟。试验由25回合(Round)组成(一个循环需要56分钟,25回合=1400分钟)
使用4K随机写入的IOPS作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准。
▲IOPS稳态收敛图-QD32
显示相关变量如何收敛到稳定状态的过程
▲IOPS稳定态验证图-QD32
显示(11,12,13,14,15)回合进入了稳态,这里需要说明的是,当性能特别稳定的盘上去,一般来说都是(0,1,2,3,4)直接进入稳定态了,而稳定性差点的盘上去,可能就在更多的回合进入了,4K性随机写入性能浮动较大的盘如果不能控制在20%以内的话,那就永远通不过这个测试,所以这个环节,从FOB状态过渡到稳定态,M9PeGN Plus 1TB表现只能说马马虎虎尚可而已。
▲IOPS测试2D图-QD32
▲IOPS测试3D图-QD32
▲IOPS测试数据汇总
这个测试可以看出,在稳定态下,随机读最大300399 IOPS,随机写最大19698 IOPS,这是有异于前面一般性测试中在FOB状态下的测试的结果,主控在不停的协调整个读写过程,同时应付不同数据块大小,不同读写比例的频繁切换,基本资源已经被榨干打到地板状态了,这时候的地板已经不是NAND基础读写速度了,问题核心是在于主控还能否HOLD住NAND的问题。
测试结果全程也没有什么0 IOPS的数据出现,而且稳定态下的随机读,随机写和随机读写都保持稳定渐进的趋势,每个数据块大小,每个读写的混合进程都能顺利完成测试,都是稳定态下效能稳定的体现。这个测试是连续不停的,所以固件看起来根本没有时间去GC回复效能,实打实的打出了这个盘最差状态下的表现。
这个测试的目的其实是模拟一个残酷且频繁的操作环境,将主控资源榨干到接近0,测试表现力,建立起一个最低的地板基线,然后给桌面版或者服务器端的SSD应用一个应用体验的参考,说的俗一些就是你们在实际服务器应用里再怎么瞎折腾也只会比这个结果更好。
2、带宽测试
测试方法
进行Secure Erase安全擦除
对于['1024k', '64k', '8k', '4k', '512']数据块大小进行持续读写60秒为一回合(Round)
使用1024K持续写入的吞吐量作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
▲带宽稳态收敛图-QD32
显示相关变量如何收敛到稳定状态的过程
▲带宽稳定态验证图-QD32
显示(1,2,3,4,5)回合直接进入了稳态,稳定性很好,满足验证标准给出了写入振幅20%平均值与测量值线性最佳拟合线的斜率的条件。
▲读写带宽测试2D图-QD32
我们可以看到持续读写各个数据块下的平均表现力,持续读最大带宽2694.525MB/S,持续写最大带宽2070.155MB/S,这是真实的爆掉了SLC Cache后且达到稳定态下面的真实表现力。
3、延迟测试
测试方法
进行Secure Erase安全擦除
预处理:128K持续写入双倍SSD容量
对于['8k','4k','512']数据块大小进行100%读,65%读35%写,100%写的随机读写测试,测量最大最小以及平均的延迟,60秒为一个回合(Round)
使用4K随机写入的平均延迟作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
▲延迟稳定态收敛图-QD32显示相关变量如何收敛到稳定状态的过程
▲延迟稳定态确认图-QD32显示了4K随机写入过程中,在(1、2、3、4、5)回合达到了稳定态。稳定性还是属于比较好的层次。
▲平均延迟在所有进程中的表现在0.08毫秒以内。
▲最大延迟在所有进程中的表现在90毫秒以内。随机读的部分是最大延迟很低的,而只有随机写的部分最大延迟相对较高,这里涉及到的问题就是主控资源的充足度以及LDPC解码资源和耗费时间问题之间的平衡调节问题了,相对于3D TLC而言,写入部分的最大延迟普遍性高一些和以下一些因素有关:
1、主控的资源,比如主控的主频以及核心数,ARM构架或者MIPS构架的实际效能。
2、LDPC硬软解码的能力。
3、主控固件的硬软件开发能力。
那么如果需要举例说明的话,SATA盘中的SMI2258H主控 TSB 64层3D TLC的盘在这个测试中随机写最大延迟普遍在700毫秒以上,这样比较就可以更加明晰Marvell 88SS1092这一颗三核ARM主控产品的效能定位。
▲平均和最大延迟3D图-QD32以及汇总数据。
4、写饱和度测试
测试方法
进行Secure Erase安全擦除
执行4K随机写入1分钟为一回合(Round),写入4倍全盘容量或者24h,以先达到者为准
计算各个回合的平均IOPS(Avg IOPS)和平均延迟(Avg Latency)
▲写饱和平均IOPS图-QD32
这个测试实际写入也就52轮写满4倍全盘容量,因为纯写入任务相对于混合读写比例的测试要简单很多,这个测试的压力程度对主控的资源以及固件的GC TRIM以及SLC Cache性能回复不造成压力,所以从空盘到写满四倍全盘容量的过程中并没有发现4K随机写入的性能发生衰减,这也是所以依然可以稳定在310000 IOPS附近并且持续到测试结束的根本原因。
▲写饱和平均延迟图-QD32也很稳定的跑在0.21毫秒附近一直到测试结束。
对比测试
这次选用的对比产品为:
PlextorM9PeGN Plus 1TB FW:1.01
Plextor M9PeGN 1TB FW:1.07
1、IOPS测试
测试方法
进行Secure Erase安全擦除
预处理:128K持续写入双倍SSD容量
每一轮测试包含.512B,4K,8K,16K,32K,64K,128K,以及1MB数据块大小,每个数据块在100%,95%,65%,50%,35%,5%和0%运行读/写混合测试,各为一分钟。试验由25回合(Round)组成(一个循环需要56分钟,25回合=1400分钟)
使用4K随机写入的IOPS作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
▲IOPS这部分,读取最好的是M9PeGN Plus 1TB,50%混合读写和写入测试一样是M9PeGN Plus 1TB数据最高,写入方面可能因为M9PeGN 1TB是四颗NAND组成16CE的缘故,会高一些。
▲IOPS稳定态验证图-QD32:Plextor M9PeGN Plus 1TB
▲IOPS稳定态验证图-QD32:Plextor M9PeGN 1TB
可以看到4K随机写入进入稳定态的情况:
Plextor M9PeGN Plus 1TB,第15轮进入,IOPS均值在18000
Plextor M9PeGN 1TB,第5轮进入,IOPS均值在26000
这说明在4K随机写入M9PeGN 1TB是绝对占优的,无论稳定性还是振幅还是平均4K写入的IOPS数值都是最优的。
2、带宽测试
测试方法
进行Secure Erase安全擦除
对['1024k', '64k', '8k', '4k', '512']数据块大小进行持续读写60秒为一回合(Round)
使用1024K持续写入的吞吐量作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
▲带宽的读写方面M9PeGN Plus 1TB直接开了挂,碾压对手,BiCS4 Toggle 3.0的带宽优势在这里得到最大体现,无论读写都非常优秀,一下子拉开了差距。
▲带宽稳定态验证图-QD32:Plextor M9PeGN Plus 1TB
▲带宽稳定态验证图-QD32:Plextor M9PeGN 1TB
可以看到1024K持续写入进入稳定态的情况:
Plextor M9PeGN Plus 1TB,第5轮进入,均值在2000MB/s附近
Plextor M9PeGN 1TB,第4轮进入,均值在1000MB/s附近
稳定性其实差不多,但是均值翻倍。
3、延迟测试
测试方法
进行Secure Erase安全擦除
预处理:128K持续写入双倍SSD容量
对于['8k','4k','512']数据块大小进行100%读,65%读35%写,100%写的随机读写测试,测量最大最小以及平均的延迟,60秒为一个回合(Round)
使用4K随机写入的平均延迟作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
▲延迟测试方面一样是M9PeGN Plus 1TB全面占优
▲延迟稳定态确认图-QD32:Plextor M9PeGN Plus 1TB
▲延迟稳定态确认图-QD32:Plextor M9PeGN 1TB
Plextor M9PeGN Plus 1TB,第4轮进入,均值在15.8us
Plextor M9PeGN 1TB,第5轮进入,均值在45us
无疑,这一关,M9PeGN Plus 1TB完胜。
4、写饱和度测试
测试方法
进行Secure Erase安全擦除
执行4K随机写入1分钟为一回合(Round),写入4倍全盘容量或者24h,以先达到者为准
计算各个回合的平均IOPS(Avg IOPS)
▲写饱和平均IOPS图-QD32可以看到写入四倍全盘容量的过程:M9PeGN Plus 1TB跑在300000 IOPS以上,速度几乎一条直线,又快又稳的跑完测试,而M9PeGN 1TB跑在230000IOPS附近,波浪曲折前进跑完测试,耗时也略长。
温度测试
待测SSD作为从盘的情况下,我在Ubuntu下使用
sudo watch -n 1 nvme smart-log /dev/nvme1n1
这条命令来监控SSD的温度
▲首先是待机温度:42度
▲然后进行4K QD32的随机写入,持续一段时间后温度不再上涨趋于稳定了,再记录温度,这个温度可以代表满载写入的最高温度68度。这个SSD的高温临界值依然是在75度附近,也就是说75度会发生降速情况。目前的气温状态在台式机上这种暴力写入也无法让SSD达到降速临界点,这个盘其实单面温度也不高还是比较适合笔记本使用的。
总结
1、其实看过我的评测
的朋友可以发现,Plextor M9peGN Plus 1TB的性能是微低于512GB的,IOPS性能进入稳定态的时间也是长于512GB的,但是不影响这个档次产品的整体性能。
2、Plextor M9peGN Plus 1TB相对于前作M9peGN 1TB是有大幅进步的。
3、支持个人送修,一年换新,二年换良,五年质保,顺丰到府在大陆的SSD质保层面还是非常接地气的,因为Intel的RMA服务政策变更导致服务质量降低,反而RMA体验被Plextor所超越。
4、899的1TB正片SSD算白菜么?Plextor M9peGN Plus 1TB在我的评估中,用料是值得的,性能的话,单面的它必然不是性能取向的产品,如果你看重低温和单面设计,不是纯性能控的话,这个正片产品还是值得一试。
5、Plextor品牌其实定位还是非常模糊的,性能打不了三星,价格上拼的是WD,RMA成本又是全场最高,所以尴尬就在这里,要说产品质量方面倒是一直稳定,要说性能方面确实又受限于万年Marvell主控的瓶颈,固件研发能力算比较出色但是又过于保守求稳,平时还一贯的不太喜欢降价,一般都在618或者双11才会给玩家一点福利。
目前899的双11价格也是历史最低了,刚需可入。适配范畴是笔记本升级用户,以及对单面以及温度比较敏感的台式机玩家。