fjyynrose 发表于 2013-7-30 13:43:21

3388570 发表于 2013-7-29 20:33
RAID的意义如下:
1.传输效能,sas接口可以把硬盘速度完整发挥。通过pci-e接口传输数据让系统负载更小。
...

写得很全面,完整。支持。

dukewang 发表于 2013-7-30 13:48:03

草竹 发表于 2013-7-29 23:28
电池的功能详细说下吗?

这个就涉及到RAID的写策略,RAID控制器的写策略通常分为“写回”和“直写”两种,直写就是数据直接写入磁盘不经过缓存,写回就是数据先写入缓存,然后再写入磁盘。
可以看出写回的效率要高于直写,但是也同时存在一个问题,就是如果数据还存在缓存中还未写入磁盘前遭遇停电,就会造成数据丢失,而电池就是起到在突然断电时继续给RAID卡供电保证数据能完全写入磁盘。
因此一般带电池的RAID卡会支持写回策略,而不带电池的RAID卡只能使用直写策略。

yell1981 发表于 2013-7-30 14:38:05

artice 发表于 2013-7-30 03:38
这问题要回答, 那首先要反问你打算用在哪里, 如果是 DSM, 依照大家对于主板吝于购买的程度, 主板上的 AHCI...

分析得好,支持一下

kesunji 发表于 2013-7-30 15:19:29

软硬Raid这件事情需要分应用场景来讨论,
1. 哪种Raid?如果是讨论Raid0、1的软硬区别,应该说区别不大了,但如果是Raid5、6这种比较高级的,就需要考虑硬件Raid的优势。
2. 哪种操作系统?Linux可以在软Raid0、1上启动操作系统(Raid5启动我不太清楚),但Windows的软Raid都不能做启动盘,如果牺牲一部分性能和容量的话,Windows也可以在不增加硬盘数量的情况下组建软Raid,不过无论如何系统都只能跑在非Raid空间上就是了。
3. 什么性能要求?Raid0、1的软硬性能差别不大,基本都能跑满硬盘的极限,或者千兆网络极限,但Raid5就不同了,软件Raid5的写入性能很差,往往比硬件Raid5性能差一半以上,硬件Raid5千兆跑满写入速度都有困难,软件Raid5基本就别想了。

个人的选择:
需求
1. Raid5
2. Windows操作系统,
3. 希望读写都能千兆跑满
4. Raid5部分尽量低功耗

目前的选择
主板自带的Raid5、具体选择Intel的方案还是AMD的方案还没确定,但主板自带的Raid5实际属于半软半硬的,具有硬件的表象,但又基本不用额外掏钱(只是主板的选择少一些,多掏不到100块)。然后我会用单个硬盘做启动、下载盘,外挂5-6个盘做Raid5(Raid5部分可以随时进入待机),这样可以达到功耗和价格的最佳配置。只是目前的老主板还没有达到写入千兆跑满,等换了新主板再试。

nunana 发表于 2013-7-30 15:39:01

jz1024 发表于 2013-7-29 19:19
无论是硬RAID和软RAID都有出错的机率,而且越大的硬盘越容易出错误!RAID1硬RAID还可以,软的最好用群晖的 ...

我就是黑裙 1T*2 RAID1 一个月了 中间还停电了好几次 怎么都没坏

dukewang 发表于 2013-7-30 16:02:18

nunana 发表于 2013-7-30 15:39
我就是黑裙 1T*2 RAID1 一个月了 中间还停电了好几次 怎么都没坏

这个看RP的,说明你RP比较好,{:7_206:}

895623 发表于 2013-7-30 16:45:40

我觉得软raid还好.硬的raid卡一坏就真完了..

风中的风 发表于 2013-7-30 16:46:09

jz1024 发表于 2013-7-29 19:19
无论是硬RAID和软RAID都有出错的机率,而且越大的硬盘越容易出错误!RAID1硬RAID还可以,软的最好用群晖的 ...

我做系统集成的,前前后后安装了几百台服务器,还没有遇到因为阵列卡造成的问题,想你这样说,磁盘阵列,虚拟带库这些都不要用了。我安装过的15T的NAS用在市级社保系统上用了3年多了从来没有出现过问题,也没有硬盘当过。

aspire 发表于 2013-7-30 17:31:00

看了以上发言,个人觉得都有些道理,但都不完全对。其实在网上搜的结果也是莫衷一是,各种说法,甚至连软硬Raid的划分都说不清楚,可见Raid行业里面也是非常乱的。
我之前用过Dell Perc6i, Dell H700, Dell H710,都是自带缓存自带电池的硬Raid,4或者8口,LSI OEM的。价格不便宜,Taobao价格至少1500(没淘汰前)。
首先我想说个人认识的软/硬Raid,说的不对的请高手斧正:
1.纯软Raid,硬盘直接插到主板或者硬盘扩展接口卡上,完全由操作系统提供条带/冗余,运算完全依赖CPU和硬盘控制器。
2.纯硬Raid,硬盘插在Raid卡上(是否有主板集成硬Raid方案,目前似乎没有看到过),该Raid卡有完整的磁盘控制器,有独立的CPU进行运算处理,根据用户设置的条带/冗余级别(Raid0,1,5,6,10,50,60等)组成的group在操作系统上看到的只是单纯的磁盘。这类Raid通常有独立的缓存/电池。
3.半软半硬Raid,这个在英语里通常被称作Fake Raid,我不知道中文正式名称,也就不是完全的硬Raid,我们现在看到的大多数廉价卡甚至包括火箭的高价卡都是这类型的,这类卡有部分的磁盘控制或者完全没有,有部分有IO处理,有独立的BIOS进行设定,不过基本上都是通过驱动告诉操作系统实际的磁盘形态,由操作系统提供条带/冗余操作,使用主机的CPU和RAM资源进行计算和缓存。似乎芯片组集成的Raid也是此种形态。

至于优缺点的问题,个人认识和各位有些不同:
1. 性能,硬件Raid未必就比软件Raid强,现在CPU越来越强大,使用高端CPU时资源基本还有很大剩余,限于技术和成本,Raid卡的处理能力无论如何不可能高端的x86 CPU相比,至少低端的硬Raid卡性能上未必强,即便是用的中低端CPU如果作为对比的硬Raid卡是比较老的型号,恐怕也会胜出很多。
2.安全性,软Raid的安全性不能说没有,但是确实不太高。纯软Raid必须在操作系统安装好之后才能创建和设置,也就是说操作系统是不在Raid保护中的;Fake Raid因为有独立的BIOS设置,在操作系统安装时可以加载驱动因此可以给操作系统也提供保护,可是无论是纯软Raid还是Fake Raid的处理和运算是依赖CPU和操作系统的,如果CPU因为处理其他任务过于繁忙或者操作系统出现故障都会导致Raid操作不能进行,甚至发生数据损坏导致整个Raid系统损坏。这种状况我在一台Dell T110 Server Xeon X3450CPU 双硬盘Raid1的系统上遇到很多次。而纯硬Raid因为独立于其他部分,只需要把数据交给Raid卡,Raid就会自行运算处理进行条带/冗余操作,而且其控制器是专用的不会处理其他任务,能充分保证Raid的正确性,即使有部分数据在系统断电时没有写入磁盘也可以在独立缓存和电池的保护下完成写入。

但是即使硬Raid也不能保证万无一失,在这方面比较多共识的是磁盘的连锁损坏现象,比如一个Raid系统中因为要求是相同厂商、容量、型号,所以绝大多数都会是同一批次的磁盘,因为预期寿命相同,又是同时出生的就有可能在一片损坏时,其余的磁盘即使没有损坏也处在边缘,这时更换硬盘就触发Raid的Rebuild,加重其他磁盘的负担,比较容易发生的是第二片,第三片磁盘...的损坏,使用更高的冗余级别是个好办法,但也不能完全保证绝对不会发生这种事情.因此尽管Raid5看起既有安全性又损失最少的容量提供过得去的性能,但是安全性其实是相当低的。

如何在一堆卡中简单区分纯硬Raid卡?说实话目前为止我没看到一篇文章能明确的说明这个问题,虽然我们可以通过查询卡的型号对其基本参数进行检索,但是即便得到厂商的Datasheet通常也是没有太大帮助的,没有一个厂商明确的说明其实现方式和软硬区分。仅能在不同网站的Q&A中看到蛛丝马迹。研究控制芯片当然也可以但是也同样不容易。我觉得最简单是看有没有独立缓存和电池,只要有一样没有就可以基本判断其为Fake。
其他:
Fake Raid除了安全性的问题以外,其实还有其他问题,我们的供应商给我们提供过两片“硬”Raid卡组建Raid1,一片火箭卡安装Asianux时能正确看到Group之后的磁盘,并且磁盘为"sda",当时分区也正常,但是安装我们自己系统软件时重新分区后就不能进入系统,发现两片磁盘都能在系统中看到,其中第二片的分区和第一片不同导致不能启动(Raid信息被破坏?),因为我们的系统软件在纯硬Raid上安装运行良好,并且磁盘损坏后的热交换操作也工作正常,因此可以确定该卡绝对是Fake,并且在网上也验证如此;第二片是MegaRaidxxxx,安装Asianux时看到的磁盘就不是"sda",而是“MegaRaidxxxxx/xxxxxxx",我们系统软件就装不下去了,查了下虽然第二块卡与第一块方式不同但是都不是纯的。
个人不推荐火箭卡(Highpoint),火箭家的卡目前我看到的没有纯硬的,无论多贵,至于国产的如果有谁知道有纯硬Raid的请告诉我具体型号。在安全可靠性要求比较高的行业内,原则是使用SAS硬盘,并且单个磁盘容量不大,通过增加磁盘数量增加总容量,为什么?SAS的速度更高,可靠性更高,磁盘容量不大可以降低Rebuild的时间和每个磁盘的工作负担也就降低了发生Fail的几率。

ruri 发表于 2013-7-30 17:54:40

硬的性能更好

paulcheong 发表于 2013-7-30 23:39:10

當然硬RAID好, 不會佔用CPU資源,但價錢貴得驚人,買不起呀

yayahahaqd 发表于 2013-7-30 23:58:44

纯学习啊,又涨知识了

pan3000 发表于 2013-7-31 09:17:09

就现在的CPU性能,还怕占资源?不是集群运算就个NAS还怕软raid跟不上?

mancn 发表于 2013-7-31 09:45:58

现在软raid性能也蛮好的,就是cpu开销会大,看如何取舍了

yukki 发表于 2013-7-31 11:34:24

带独立CPU的硬RAID性能方面还是数据保存方面都比较好,但是价格的确很高。很多市面上的阵列卡其实就是个半硬卡,提升了速度。软件RAID的话,看软件在企业级多盘位的客户使用年限,当然RAID的稳定与否,跟多个硬件也有关系,总体来说还是硬件阵列更好些。

5ikk 发表于 2013-7-31 11:54:27

SATA仅仅是一个硬盘接口传输速度,3GB/S,其最大的数据传输速度是300MB/S(SATAII),而机械硬盘内部传输速度,一般在70-90之间,还是理想情况下,拷贝的是小文件,或者碎片化明显时,速度可能就只有20、30MB左右。对于家用环境来说,一般存储的文件比较大,性能还好些。所以做Raid提高传输速率还是有价值的。企业环境下,ZFS之类的文件系统会更合用些

5ikk 发表于 2013-7-31 11:59:16

xara 发表于 2013-7-30 13:34
反正我是唱衰奥睿科的,做东西不精致也就罢了,居然还敢买高价.
买了它家一个四盘位硬盘盒都快要被它气到不行 ...

本来人家就是主做外置硬盘盒的,个人觉得1-2盘位的还行,多盘位的本来就不是强项,何况阵列。。。让IBM、HP、EMC之流情何以堪

vnov 发表于 2013-7-31 14:14:34

有的主板自带的raid是属于硬的么?

xara 发表于 2013-7-31 18:16:07

5ikk 发表于 2013-7-31 11:59
本来人家就是主做外置硬盘盒的,个人觉得1-2盘位的还行,多盘位的本来就不是强项,何况阵列。。。让IBM、 ...

散热不好是设计问题,没听说过便宜的东西就不一定要散热不好吧.况且,它还不便宜,2000+
说它RAID性能不行是既有事实,就是JMicron的廉价方案.

odie82544 发表于 2013-7-31 18:17:54

vnov 发表于 2013-7-31 14:14
有的主板自带的raid是属于硬的么?

以前 scsi 时代较多, 现在很少了, 伺服器主板才有可能见到
页: 1 2 [3] 4 5 6
查看完整版本: 硬RAID和软RAID?