admin 管理员组文章数量: 887021
2024年3月6日发(作者:delphixe10安装教程)
10项主流存储技术分析
编者按:存储信息,就是存储未来。在存储市场爆炸性增长的同时,用户更关心存储技术未来的发展趋向。我们选择了目前10项主流技术,向用户介绍存储的基本技术“框架”。
1直接连接存储技术(DAS)
由于Internet的普及与高速发展,网络服务器的规模因此变得越来越大。Internet对服务器本身及存储系统都提出了苛刻要求。新的存储体系和方案不断出现,服务器的存储技术也日益分化为两大类: 直接连接存储技术(DAS, Direct-Attached
Storage)和存储网络技术。
服务器的直接连接存储技术一直和SCSI技术的发展紧密关联,一些厂商也推出了专有技术,如IBM的SSA(Serial Storage Architecture)技术等,由于兼容性和升级能力不尽如人意,在市场上的影响都远不及SCSI技术广泛。Ultra 3 SCSI技术和RAID(Redundant Array of Inexpensive Disks)技术是当前直接连接存储的主流技术。
由于SCSI技术兼容性好,市场需求旺盛,因此新的SCSI技术几年来层出不穷。从最原始的5MB/s传输速度的SCSI-1,一直发展到LVD接口的160MB/s传输速度的Ultra 160 SCSI,另外,320MB/s传输速度的Ultra 320 SCSI接口也将在2001年出现。
RAID技术目前也从原来主要支持价格较贵的SCSI、SSA、FC(Fiber Channel)等设备扩展到支持廉价的UDMA(IDE)设备。RAID逐渐褪去“贵族”的外衣,“RAID
Everywhere”也成为一些致力于存储的专业厂商的发展目标。据IDC的预测,未来几年中,全球服务器的平均增长率为19%,而RAID设备的平均增长率为38%。
2存储网络技术
存储网络技术是近年来出现并高速发展的最新技术,具有很高的安全性,且动态扩展能力极强。但由于应用主要集中在企业级,价格也始终居高不下,因而很少进入
中低端服务器用户的视野。由于缺乏统一的业界标准,因此存储网络技术还不统一,各厂商都以解决方案的形式来提供产品,如SAN(Storage Area Network)。但许多基于工业标准的网络存储方案已经开始得到应用,较有代表性的有光纤通道技术(Fibre Channel)、分布式网络存储(EtherStorage)和Infiniband等。目前基于Fibre Channel的应用方案最多,成熟的产品也很多;分布式网络存储则是基于标准以太网的低价存储网络解决方案,利用现有以太网和SCSI技术就可以构建;而Infiniband是Intel推动的IA-64架构的核心存储技术,在未来几年中,将会有较大发展。几种存储技术的比较如表1所示。
3SCSI技术
从SCSI技术的发展历史来看,SCSI协议的V1版本仅规定了5MB/s传输速度的SCSI-1的总线类型、接口定义、电缆规格等技术标准。随着技术的发展,SCSI协议的V2版本作了较大修订,遵循SCSI-2协议的16位数据带宽、高主频的SCSI存储设备陆续出现并成为市场的主流产品,也使得SCSI技术牢牢地占据了存储市场。
SCSI-3协议则增加了能满足特殊设备协议所需要的命令集,使得SCSI协议既适应传统的并行传输设备,又能适应最新出现的一些串行设备的通信需要,如光纤通道协议(FCP)、串行存储协议(SSP)、串行总线协议等。几种协议的性能如表2所示。
这里需要指出的是最大传输速度并不代表设备正常工作时所能达到的平均访问速度,也不意味着不同SCSI工作模式之间的访问速度存在着必然的“倍数”关系。SCSI控制器的实际访问速度与SCSI硬盘型号、技术参数,以及传输电缆长度、抗干扰能力等因素关系密切。提高SCSI总线效率必须关注SCSI设备端的配置和传输线缆的规范及质量。
4RAID技术
RAID是一项非常成熟的技术,但由于其价格比较昂贵,配置也不方便,缺少较为专业的技术人员,因此其应用并不十分普及。据统计,全世界75%的服务器系统目前
没有配置RAID。由于服务器存储需求对数据安全性、扩展性等方面的要求越来越高,RAID市场的开发潜力巨大。
RAID技术是一种工业标准,各厂商对RAID级别的定义也不尽相同。目前对RAID级别的定义可以获得业界广泛认同的只有4种,即RAID 0、RAID 1、RAID 0+1和RAID 5。
RAID 0是无数据冗余的存储空间条带化,具有低成本、极高读写性能、高存储空间利用率等特性,适用于Video/Audio信号存储、临时文件的转储等对速度要求极其严格的特殊应用。但由于没有数据冗余,其安全性大大降低,因此,在RAID 0中配置4块以上的硬盘,对于一般应用来说是不明智的。
RAID 1是两块硬盘数据完全镜像,安全性好,技术简单,管理方便,读写性能均好,但无法扩展(单块硬盘容量),数据空间浪费大。严格意义上说,它不应称之为“阵列”。
RAID 0+1综合了RAID 0和RAID 1的特点,独立磁盘配置成RAID 0,两套完整的RAID 0互相镜像。它的读写性能出色,安全性高,但构建阵列的成本投入大,存储空间利用率低,不能称之为经济高效的方案。
RAID 5可以说是目前应用最广泛的RAID技术。各块独立硬盘进行条带化分割,相同的条带区进行奇偶校验(异或运算),校验数据平均分布在每块硬盘上。RAID 5具有数据安全、读写速度快、空间利用率高等优点,应用非常广泛,但不足之处是一块硬盘出现故障以后,整个系统的性能大大降低。
各厂商还在不断推出各种RAID级别和标准。其中用IDE硬盘构建RAID的技术是新出现的一个技术方向,对市场影响也较大,其突出优点就是构建RAID阵列非常廉价。目前IDE RAID可以支持RAID 0、RAID 1和RAID 0+1三个级别,最多支持4块IDE硬盘。由于受IDE设备扩展性的限制,同时,IDE设备也缺乏热可替换技术的支持,因此IDE RAID的应用还不多。
5SAN技术
1991年,IBM公司在S/390服务器中推出了ESCON(Enterprise System Connection)技术,它是基于光纤介质,最大传输速率达17MB/s的服务器访问存储器的一种连接方式。在此基础上,进一步推出了功能更强的ESCON Director(一种FC Switch),构建了一套最原始的SAN系统。
SAN是存储技术进入网络时代的产物,对SAN的中文翻译,最好的名字是存储区域网。它一方面能为网络上的应用系统提供丰富、快速、简便的存储资源;另一方面又能对网上的存储资源实施集中统一的管理,成为当今理想的存储管理和应用模式。未来SAN的发展趋势将是开放、智能与集成。谁具有这三个核心竞争力,谁就会赢得这个潜力巨大的市场。
Internet的飞速发展,尤其是诸如ISP、ASP及电子商务等大规模存储需求的不断涌现,为SAN的发展创造了良好的外部条件,成熟的Internet / Intranet构建技术本身又为SAN的发展提供了良好的技术支持。基于FC的Hub、Switch、Bridge、Router、Gateway等产品陆续推出,为SAN不断向前发展推波助澜。
这里需要指出的是,Fibre Channel中的Fibre并不特指“光纤(Fiber)”,广义来说,它是一种传输协议。目前常用的FC存储多采用铜线传输,只有远距离传输时,才必须使用真正的光纤。铜线最长可支持30米的传输距离;多模光纤(MMF)可以支持到2公里的传输距离;而单模光纤(SMF)则可以支持长达10公里的传输距离。SAN让多主机访问存储器和主机间互相访问一样方便,典型SAN结构如右图所示。
6NAS技术
在世界范围内,NAS是发展速度最快的数据存储设备。 在典型的网络架构中,数据成为了网络的中心,NAS设备是直接连接在网络上的。表面上看,NAS设备是单独作为一个文件服务器存在的,网络中所有设备的数据全部存储在NAS设备中,简化了网络架构。同时NAS的其他特性表现在以下几个方面:
将NAS设备连接到网络上非常方便。NAS设备提供RJ-45接口和单独的IP地址,可以将其直接挂接在主干网的交换机或其他局域网的Hub上,通过简单的设置(如设置机器的IP地址等)就可以在网络即插即用地使用NAS设备,而且进行网络数
据在线扩容时也无需停顿,从而保证数据流畅存储。与传统的服务器或DAS存储设备相比,NAS拥有更大的存储空间和相对低廉的价格,这也表明NAS设备具有超强容量扩展能力,为企业未来的发展打下了坚实的基础。
由于NAS设备的安装、调试、使用和管理非常简单,因此对于选用NAS作为网络数据存储设备的企业用户来说,昂贵的设备管理与维护费用将不复存在。另外,NAS设备在网络中占用一个IP地址,本身就相当于一台高性能的文件服务器,用户选用NAS设备后只需购买相应的应用服务器,从而节省大量的设备购置成本。
同时,NAS对于已建立的网络的用户来说也不存在任何威胁,NAS设备完全融合在已建立起来的网络中,它可以作为独立的数据存储设备搭配其他的各种服务器,既保护了用户的原有投资,又将整个网络的性能提高到一个新的层次。
NAS设备可以完全实现文件在不同操作系统平台下的共享,由于用户通过不同的网络协议可进入相同的文档,因此无需改造现有网络NAS设备就可无缝混合应用在多种操作系统平台下,从而大大节省了成本。
NAS设备采用集中式存储结构,摒弃了DAS的分散存储方式,网络管理员可以方便地管理数据和维护设备,同时NAS设备允许用户在网络上存取数据,有效改善了网络的性能。
NAS设备内置优化的独立存储操作系统,可以有效、紧密地释放系统总线资源,全力支持I/O存储,同时NAS设备一般集成本地的备份软件,可以不经过服务器将NAS设备中的重要数据进行本地备份,而且NAS设备提供硬盘RAID、冗余的电源和风扇以及冗余的控制器,可以满足7×24小时的稳定应用。
7IP存储
IP存储即iSCSI,这种技术在IP栈的一个层面上传送本机SCSI。iSCSI使企业网络可以在接入WAN时能够在任何位置传输、存储SCSI命令及数据,如在Internet上传输时,则可以在接入Internet的位置传输、存储SCSI命令和数据。它还允许利
用普通的Ethernet基础设施建立较小的本地化SAN。因此, iSCSI使SAN在更广泛的主流市场上部署成为可能。
在支持iSCSI的系统中,用户或软件应用为在一台SCSI 存储设备上保存或索取数据而发出命令; 操作系统对这个请求进行处理并将这个请求转换为一条或多条SCSI命令,再传送给软件或接口卡。 命令和数据被封装起来,形成一条由iSCSI包头开头的字节串,封装起来的数据被传送到TCP/IP层后, 由TCP/IP将封装起来的数据分为适于网络传输的包。如果需要,则封装的SCSI命令还可以先进行加密,然后在不安全的网络上传送。
数据包可以在网络或Internet上传送。在接收存储控制器上,数据包重新被组合。然后,存储控制器利用iSCSI报头将SCSI控制命令和数据发送到相应的磁盘驱动器上, 驱动器再执行初始计算机或应用所请求的功能。如果发送的是数据请求,那么将数据从磁盘驱动器上取出,然后再封装并发送给发出请求的计算机。全部过程对于用户来说是透明的。
尽管SCSI命令和数据准备可以通过使用标准TCP/IP和现成的网络接口卡的软件来完成,但最有可能出现的涉及到执行这种功能的专用iSCSI接口卡。在利用软件完成封装、 解封以及TCP/IP的情况下,在主机处理器上执行这些功能需要很多的CPU
周期来处理数据和SCSI命令。将这些功能交给专用硬件处理,则可以将对系统性能的影响减少到最小程度。
iSCSI标准的草案和早期的iSCSI产品预计将在2001年推出。参与IETF标准开发的各家公司在2000年12月举行会议,以加快制定利用IP网络在计算机与存储设备之间传送数据和SCSI命令的标准的进程。IP网络的普及性将使数据可以通过LAN、WAN或通过Intenet利用新型IP 存储协议传输。
8磁带技术
● DAT(Digital Audio Tape)技术
DAT技术(数码音频磁带技术)最初是由HP与Sony共同开发的。这种技术以螺旋扫描记录(Helical Scan Recording)为基础,将数据转化为数字后再存储下来。早期的DAT技术主要应用于声音的记录。随着技术的不断完善,DAT又被应用在数据存储领域里。DAT技术主要应用于用户系统或局域网,它以非常合理的价位提供高质量的数据保护。
在信息存储领域里,DAT一直是广泛应用的技术之一,而且种种迹象表明,DAT的优势还将继续保持。这种技术之所以大受欢迎,还由于它具有很高的性能价格比。首先,在性能方面,这种技术生产出的磁带机平均无故障工作时间长达20万小时(新产品已达到30万小时);在可靠性方面,它所具有的即写即读功能,能在数据被写入之后马上进行检测,不仅确保了数据的可靠性,而且还节省了大量时间。
第二,磁带机种类繁多,能够满足绝大部分网络系统备份的需要。对于网络系统,DAT产品由于已被证明的高兼容性、高可靠性与介质的低成本而被最广泛的接受并使用。
第三,硬件数据压缩功能大大加快了备份速度,而且压缩后的数据安全性更高。
第四,由于该技术在全世界都被广泛应用,因此在全世界都可以得到该技术产品的持续供货与良好的售后服务。
● DLT(Digital Linear Tape)技术
DLT(数码线型磁带技术)最早于1985年由DEC公司开发,主要应用于VAX系统。尽管这种技术性能出众,但是由于价格昂贵,因而在1993年销售量曾降到最低点。后来随着高档服务器的容量超过了其他磁带机技术所能提供的容量(如8mm),DLT又重新成为信息存储领域里的热门技术。
DLT技术采用单轴1/2英寸磁带仓,以纵向曲线性记录法为基础。DLT产品定位于中、高端的服务器市场和磁带库应用系统。目前DLT驱动器的容量为10GB~35GB,数据传送速度为1.25MB/s~5MB/s,如果硬件采用数据压缩,则可以使容量与速度增加一倍。但DLT技术也存在相应的劣势,如驱动器与介质造价昂贵;主系统与网
络之间通道狭窄,限制了传送速度,增加了操作时间;非标准的外型设计使内部设置受到很大限制;单一的产品提供使渠道受限。总的说来,DLT仍被认为是未来型产品,发展很快,但目前只会被少数需要高性能备份的系统用户所使用。
● LTO(Linear Tape Open)技术
LTO即线性磁带开放协议,是由HP、IBM、Seagate三家厂商在1997年11月联合制定的。它结合了线性多通道、双向磁带格式的优点,基于服务系统、硬件数据压缩、优化的磁道面和高效率纠错技术,来提高磁带的性能。
LTO技术是一种“开放格式”的技术,上述三家厂商将生产许可开放给存储介质和磁带机生产商,使不同厂商的产品能更好地兼容,这意味着用户将拥有多种产品和介质。开放性还带来更多的发明创新,使产品的价格下降,用户受益。
目前,LTO具有两种存储格式:高速开放磁带格式ultrium和快速访问开放磁带格式accelis,定制两种格式是因为并不是所有的用户都要求相同的特性和功能性。一些应用程序强调重点在“读”,要求快速的数据访问速度; 而另一些应用程序则重点在于“写”,要求最高的磁带存储能力。
ultrium磁带格式除了具有高可靠性的LTO技术外,还具有大容量的特点。它能够单独操作,也可以在自动操作环境中使用。
accelis磁带格式主要侧重于快速数据存储。它在磁盘中装载了双轨磁带存储器以减少存取时间。accelis格式适用于自动操作环境,可处理广泛的在线数据和恢复应用。
这两种格式都使用同样的头、介质磁道面、通道和服务技术,并共享许多普通的代码部分。因为目前存储用户更偏重于对存储容量的需求,所以两种格式相比较而言,ultrium格式是当今存储业界更值得关注的技术。
9光存储技术
随着光学技术、激光技术、微电子技术、材料科学、细微加工技术、计算机与自动控制技术的发展,光存储技术在记录密度、容量、数据传输率、寻址时间等关键技
术上将有巨大的发展潜力。在本世纪初,光盘存储将在功能多样化、操作智能化方面有显著的进展。随着光量子数据存储技术、三维体存储技术、近场光学技术、光学集成技术的发展,光存储技术必将在本世纪初成为信息产业中的支柱技术之一。未来主要有三个发展方向:
● 高密、高效、高速的母盘刻录技术。采用短波激光和大数值孔径的物镜,可使道间距减小,比特长度减小,从而提高光盘的刻录密度;采用脉宽调制,可显著提高记录效率。
● DVD单面盘的精密注塑及双盘的封装技术。将DVD母盘、模板生产线挑选出的合格模板,用精密注塑机注塑成形,得到的DVD半成品经适当冷却,送入溅射室,根据不同要求,分别溅射金或铅,然后进行粘合剂旋涂、封装、紫外光固化、在线检测、商标印刷等,制成DVD只读光盘。
● 光盘记录介质。 DVD-RAM光盘是否稳定可靠,记录介质是关键,而材料设计能否满足高速存储的要求,又取决于记录介质能否在两个稳定态之间实现快速可逆相变。国内外传统相变介质材料设计都是基于激光的热效应,信息写入用液相快淬实现;信息的擦除用晶核形成、晶粒长大来完成。由于热效应是能量积累的过程,写入一个比特需较长时间(约几十纳秒),而且介质在经历几十万次的写/擦循环后会出现信噪比下降的热疲劳。
当记录激光采用短波长时,激光的热效应将逐渐减弱,而激光光子的激发作用将突出,所以新的材料设计基于激光的光效应。对半导体类型介质而言,写入一个比特只要几十皮秒,使记录速率获得数量级的提高。这种基于非线性光学双稳态变化效应的记录介质,被称为光双稳态记录介质,它可以是无机材料,也可以是有机材料或无机有机复合材料。
10面向数据库的存储技术
作为一个数据库管理员,必须确保企业的数据库是可用的、可靠的和易于扩展的。满足这些要求的理想的存储方案也应当是合算的、易于实现和管理的,同时也能改进整个系统的性能。NetApp Filers就是这样一个存储方案。
上海北方网络科技有限公司主要经营以NetApp公司的存储产品系列为基础架构的海量存储系统解决方案,并提供技术及业务咨询和实施服务。NetApp Filers是经Oracle、Sybase、DB2等大型数据库厂商认证,已被《财富》1000家大公司广泛用来增强和简化数据存储和读取性能。NetApp Filers包括符合标准的硬件和专利软件,能够在现存的运行Unix和Windows NT系统的异构IT系统平台上协同工作,集中进行数据读取。它具有在不停机的情况下扩展数据存储的能力。
存储技术分析之DWDM
和企业商务应用的爆炸性增长,导致全球企业和服务供应商的网络需求猛增。诸如电子商务,客户关系管理,存储网络和刚浮出的诸如流媒体应用这样的关键任务支持服务,都影响着网络的所有环节,从接入到城域网(MAN) 和广域网 (WAN)。 这些技术挑战影响着各种行业,从财务服务,健康服务,教育到电信服务提供商。
商务服务对人们的日常生活起着关键作用,消费者希望能够快速地、无中断地访问公司的系统和数据。同时,空前增长的存储需求,迫使公司重新审视如何以及通过何种途径来满足人们的要求。新的存储区域网络(SAN)和网络直连存储技术便应运而生。这些技术可以使得企业扩充它们的存储能力,提高了存储资源的总体的易管理性,同时拓展了其可访问的地理范围。
通讯商在城域网中的光纤配置,使得黑光纤(dark-fiber)和高带宽成为可行。曾经达到T1和T3的网络连接设施,现在需要光纤信道, 企业系统连接(ESCON), 千兆以太网,以及将来的万兆以太网来满足用户的带宽需求。这个需求,随着先进的诸如密集波分复用(DWDM)的激光技术的进展,大大地促进了传输容量的提高,并降低了成本,使得通讯商为了能够在城域网市场中能够提供黑光纤和高带宽服务,经济上负担得起。
请读者先有如下印象:本文讨论的是存储服务供应商(SSP) 在城域网(MAN)中使用密集波分复用(DWDM)的存储合并技术,也将阐述该技术出现的原因、具备的优势、在存储市场中的可能影响,以及一些需要克服的障碍。
什么是DWDM?
DWDM是Dense Wavelength Division Multiplexing(密集波分复用)的缩写,这是一项用来在现有的光纤骨干网上提高带宽的激光技术。更确切地说,该技术是在一根指定的光纤中,多路复用单个光纤载波的紧密光谱间距,以便利用可以达到的传输性能(例如,达到最小程度的色散或者衰减),这样,在给定的信息传输容量下,就可以减少所需要的光纤的总数量。
DWDM能够在同一根光纤中,把不同的波长同时进行组合和传输。为了保证有效,一根光纤转换为多个虚拟光纤。所以,如果你打算复用8个光纤载波(OC),即一根光纤中传输48路信号,这样传输容量就将从2.5 Gb/s提高到20 Gb/s。 目前,由于采用了DWDM技术,单根光纤可以传输的数据流量最大达到400Gb/s。随着厂商在每根光纤中加入更多信道,每秒兆兆位的传输速度指日可待。
DWDM的一个关键优点是它的协议和传输速度是不相关的。基于DWDM的网络可以采用IP协议、ATM、SONET /SDH、以太网协议来传输数据,处理的数据流量在100 Mb/s 和2.5
Gb/s之间,这样,基于DWDM的网络可以在一个激光信道上以不同的速度传输不同类型的数据流量。从QoS (质量服务)的观点看,基于DWDM的网络以低成本的方式来快速响应客户的带宽需求和协议改变。
密集波分复用 (DWDM) 设备
DWDM设备用来在单一的光纤上复用多个1 Gbit/sec (或者更高)信道。这些激光复用器对于潜在的协议来说是透明的,这意味着企业可以利用单一的DWDM 设备在一根光纤上传输千兆以太网,千兆光纤信道, ESCON和SONET,每种网络传输模式都具有自己的波长。
企业可用点对点的方式或者累积的点对点方式配置DWDM设备,以形成环路。一旦主链接不能访问,大多数DWDM设备支持自动失效转接到冗余物理链接。在环形拓扑结构中,节点之间仅需要一条链接。如果链路失效,激光将朝相反的方向传输来达到目标。某些类型的DWDM设备可以添加和去除指定的波长的传输模式,这就使得在环形网中的出入波长路由的距离可以从70公里到160公里以上。
DWDM 设备有两种基本类别:边缘类(适用于企业) 和核心类 (适用于通讯商)。 相对来说,边缘类的DWDM 设备通常体积小,价格低,信道少。
常规情况下,一个企业可以在两个交换机之间通过双互联交换链路(ISL),把相距50公里以上的两个站点连接起来,ISL是使用E_Port进行连接的,E_Port是个把两个交换机连接成一个架构的扩展端口。在交换机和DWDM设备之间的ISL连接提供了更大的带宽(达到2
Gbits/sec,而非1 Gbit/sec),但这并不需要。 DWDM设备可以拥有一个热待机保护链路,一旦主链路失效,就可以自动调用该保护链路。 该保护链路应该置于一个单独分开的物理通道上。
核心类的DWDM设备体积更大,价格更高,信道也更多。该类DWDM设备允许进行环路配置,提供了增加和删除能力(本文后面将简要讨论一个跨越4个站点的服务的例子)。
基于城域网的应用
许多类型的应用可以得益于基于城域网的SAN配置。最常见的应用包括集中化远程存储
(例如服务供应商模式),集中化的远程备份,业务连续性。
例如,一提供了冗余通道的光纤DWDM 环路拓扑网,具有从中断的通道转向替代通道的能力。假如, 站点B同站点C之间的连接通道距离为70 公里,一旦发生断连,站点B使用DWDM的替代通道(其他方向),以便恢复同站点C的连接。该通道(假如从站点B经A到C)
跨度为100 公里 (50 公里加50公里)。在测试中,由于架构信道交换机E_Ports端口中的扩展缓冲,初始和替代通道提供了几乎同等级别的数据访问性能。
SAN/DWDM 基础架构下的存储集中化
企业可以把地理上分散的环境或者校园进行存储集中化,或者甚至远程把该项工作交给存储服务供应商(SSP)来完成。 在各种环境下,你也可以拥有一个SSP配置,其中指定站点C为SSP站点,站点C为多个站点提供存储服务。
本例中,站点A和B连接到站点C (即存储服务提供商SSP)。此处,分区制 (架构交换机-Fabric switches 或者hub中的特色功能,可以通过物理端口、名称或地址来分割节点) 也能用来隔离异种架构,这样,可以控制每个客户站点可以访问的存储量。两个架构区域(一个用于站点A ,另一个用于站点B) 把两个站点的存储隔开。
SAN/DWDM 基础架构下的备份集中化
远程备份集中通过使用架构分区,可以把多个站点的数据备份到单一的共享磁带库中。站点A和B可以共享站点C提供的磁带库,站点C允许两个站点的各自区域都存放在磁带库中。结果是:每个站点可以使用库中的磁带设备进行数据备份操作。
SAN/DWDM 基础架构下的业务连续性
业务连续性方案是把数据同步到远程镜像位置,万一遇到灾害,冗余系统可以接替主系统来工作,并访问镜像数据。一旦主系统正常之后,该方案也可以容易地从冗余远程系统恢复到主系统。两个站点可以同时使用该类型方案。
例如,站点A和B是主站点(运行不同的操作系统),站点C是站点A和B的远程业务连续性站点。只要站点A和B中的一个出了故障,就会切换到站点C。
多节点DWDM配置
最后,正如前面已经提到的,让我们简要地看看多节点DWDM配置,其可以覆盖四个站点
(DWDM 1, 2, 3 和4),及可提供的光通讯服务。例如,假如存在四个交换机,每个交换机的E_Ports连到一个包含发射和接收双通道的DWDM信道,每个通道有自己的波长。DWDM
的passthrough特色可以使得非邻接的站点通过中介站点连接,就如同直接相连一样。通过中介站点连接所增加的唯一开销是第二条链接的最小延迟 (5 usec/km)。由于passthrough是被动的设备,所以没有开销。
每种连接可以在保护模式下操作,万一出现连接故障时,可提供冗余通道。大多数情况下,连接故障在50毫秒内可自动检测出。此时,故障连接的两种波长朝沿着反方向传输,到达反方向的环路的目标端口。 如果DWDM 1和4之间的连接失败,从4到1的传输波长将调转方向,通过3和2到达1。从1到4的传输波长也将调转方向,通过2和3到达4。
计算环路中节点间的距离取决于所实现的保护通路策略。例如,如果DWDM 2 和3之间的连接失效,1到3的通道将为1到2,2返回到1 (由于连接失效),1 到4,最后4到3。这说明要排除故障,保持连通,需要使用到环路的整个圆周。(而且在四个以上节点的配置中也是如此) 。
计算节点之间距离的另外一种方法是提前设置保护路径 (在相反方向),这样距离就限制在
两个节点之间的转跳的个数。这两种情况下,节点之间的最大距离决定了最大的光纤范围。例如,在这种方案下,节点之间的最大距离是80到100 公里,而在环路方案下,最大范围是160到400公里。
但是,假如你有一对SAN交换机:一个位于位置X,一个位于位置Z。两个站点之间的距离大约为5公里。你打算使用特定的黑光纤通过DWDM系统,连接两个交换机。你所使用的每种线卡都匹配850nm的光纤。但连接失败,你被告知,由于使用了短波千兆接口转换器(GBIC),而导致连接失效。GBIC是个把电流转换为激光信号的以及把激光信号转化为数字化的电流的收发器。但GBIC和频带卡是专用于850nm的,所以这应该不会有问题。
此处你需要问的问题是:是否你需要设置什么吗?或者,通过DWDM来建立这些链接,你还需要做些什么?对这两个问题的回答如下:
采用DWDM的光缆排障
光缆连接是否正确对连接到远程站点至关重要。为确保配置正确,让我们看看光纤连接的标准,包括设备之间的所允许的最大距离。
问题
故障现象同你的连接设置相关。光纤连接的正确标准如下:
短波(850 mm) GBIC使用50u 的光缆,终端设备之间的最大距离为500米。
长波(1300 mm) GBIC使用9u的光缆,终端设备之间的最大距离为10公里,无需扩展器或者转发器。
通过在黑光纤(9u 光缆)上使用DWDM,终端设备之间的最大距离可以延伸到为100公里。
解决方案
所以,你如果建立了相距5公里的站点的扩展架构,应该参考如下配置:
主机到交换机=50u 多模光缆接到短波GBIC (850mm)。
交换机主端口使用短波GBIC (850mm)。
交换机到DWDM= 50u 多模光缆到短波GBIC (850mm)。
DWDM到远程站点连接=长波GBIC (1300mm) 到 9u单模光纤(黑光纤)。
这样,你的线卡具有短波多模连接,这适用于局部连接,但站点之间的连接则需要使用长波单模连接。
最后,实际上在远程站点上,应进行同样的设置。对于你的交换机,也需要SAN的扩充许可,因为这将会耗尽交换机之间的可用缓冲区数量。这里的本质是:随着光纤技术的发展,站点之间的连接距离将会继续增加。
小结和结论
在城域网范围内,DWDM对两个数据中心之间的连接,最为理想和可靠。而在更远的距离
上,SONET则提供了高的时分复用(TDM)带宽。通过光纤信道或带IP协议的光纤信道(FCIP)进行远程数据复制工作,这两种技术都是最优选择。
最后,在城域网范围内使用DWDM,进行SAN的互联,企业可以实现一个具有高可靠性的通讯环境,可以把重要的业务数据复制到远程位置,而且支持诸如数据镜像、数据复制、磁带库、远程服务器聚集等业务连续性的应用。这些业务连续性的应用,以及相关的SAN技术,诸如光纤信道(Fibre Channel)和ESCON,需要具有容错性,高带宽,低延迟的特点的网络。对于同步镜像,为了避免影响应用的性能, DWDM光纤网的延迟要小这一点是很关键的。
光存储技术解析:什么是Blu-ray?
1、什么是Blu-ray ?
Blu-ray Disc是一种最新的革命性光学储存技术,可用于PC产品、消费性电子产品及游戏机。它可以录制、重复写入及播放高画质的影片,亦可以储存大容量的数位资料。为更高品质的光影存取,提供划时代的新体验。
2、为何叫做Blu-ray Disc?
次世代的蓝光存储技术使用了波长较短的蓝光激光,可聚焦于更小的点,相较于使用红光激光的DVD,可以提高数据的储存密度。
3、Blu-ray Disc的优点为何?
Blu-ray Disc可以储存25GB的数据于单层的光盘片,单面双层可达50GB的高容量。一片单层25GB的Blu-ray Disc相当于23小时一般分辨率的TV影片或是6小时高分辨率的影片,而一片双层50GB的Blu-ray Disc可以储存与70片CD或是10片DVD相当的内容资料。
一部高解析度的电影只需一片25G的蓝光片,即可储存。
Blu-ray Disc提供了更大的容量来容纳超高的画质与音质。高清电视提供了六倍于一般电视的画面信息,因此您可以看清楚所有的细节。为了达到这个要求,播放高清电视需要更大的数据流量及更高的容量。因此,若您有一台高清电视,您亦会需要Blu-ray Disc光驱来观赏高画质影片、或是Blu-ray Disc刻录机来保存高清电视影片。
Blu-ray Disc带来的其它优点为何?
如果高画质及高音质还无法让您满足于Blu-ray Disc的技术,那么想想看储存更大容量于一片的这个好处,当您必须起身来更换电影影片或花絮的DVD光盘时,Blu-ray Disc只需要一片就能搞定。当DVD刚发明的时候,也没有花絮这个东西,但当好莱坞了解到DVD比VHS更大的优点时,他们积极热衷于增加新内容来让消费者更喜爱DVD,要知道Blu-ray Disc有着更大的空间及互动性,谁晓得他们下一步会想出什么?
4、使用Blu-ray Disc,您可能获得:
■更多的高清花絮
■更多由Blu-ray Disc Java所提供的的互动功能
■多频道及多角度的高清影片
■Internet联机(部份机种)
■无须离开影片的弹出式选单
■高清全彩图片及开始按钮
■更多的影片内容,甚至把您想看的前传或续集一并收录
■游戏
■更多„„
5、这个新技术坚固耐用吗?
是当然的!事实上,Blu-ray Disc技术使用许多的hard-coat技术来使光盘片更耐用且更"family-friendly"。
Hard coat提供对指纹、污点、刮痕及灰尘的防护,使得它比现今的CD与DVD更坚固耐用。
6、那我所有的DVD怎么办呢?
没有问题!Pioneer Blu-ray Disc驱动器亦兼容于DVD或CD,因此您可以继续播放您的DVD影片。
融合。总有一天,现在的光纤和SCSI磁盘阵列、NAS文件服务器、磁带库等设备都可以运行在一个统一标准的架构中。IP存储(Storage over IP简称为SoIP)--在IP网络中传输块级数据--使得服务器可以通过IP网络连接SCSI设备,并且像使用本地的设备一样,无需关心设备的地址或位置。
而网络连接则是以IP和以太网为骨干,这令人联想起今天耳熟能详的存储域网(SAN)结构。只是以廉价而成熟的IP和以太网技术,替代了光纤通道技术。
由于既有的成熟性和开放性,IP存储技术,使企业在制定和实现"安全数据存储"的策略和方案时,有了更多的选择空间。例如远程的数据备份、数据镜像和服务器集群等领域,IP存储的介入都可以大大丰富其内容。
同时,IP存储也消除了企业IT部门在设计传统SAN方案时,必须面对的产品兼容性和连接性方面的问题。最重要的是,基于IP存储技术的新型"SAN",兼具了传统SAN的高性能和传统NAS的数据共享优势,为新的数据应用方式提供了更加先进的结构平台。
在过去的一年中,存储和网络厂商的注意力,主要集中在IP存储技术的两个方向上--存储隧道(Storage tunneling)和本地IP存储(Native IP-based storage)下面是这两个方面的一些粗略概况。
存储隧道技术
顾名思义,这种技术是将IP协议作为连接异地两个光纤SAN的隧道,用以解决两个SAN环境的互联问题。光纤通道协议帧被包裹在IP数据包中传输。数据包被传输到远端SAN后,由专用设备解包,还原成光纤通道协议帧。
另一方面,虽然IP网络技术非常普及,其管理和控制机制也相对完善,但是,利用IP网络传输的存储隧道技术,却无法充分利用这些优势。其原因主要在于,嵌入IP数据包中的光纤通道协议帧。IP网络智能管理工具不能识别这些数据,这使得一些很好的管理控制机制无法应用于这种技术,如目录服务、流量监控、QoS等。因此,企业IT部门的系统维护人员,几乎不可能对包含存储隧道的网络环境,进行单一界面的统一集中化管理。
目前的存储隧道产品还有待完善,与光纤通道SAN相比,只能提供很小的数据传输带宽。例如,一个在光纤SAN上,用两到三个小时可以完成的传输过程,在两个光纤SAN之间以OC-3标准传输大约需要14个小时。这是目前存储隧道产品比较典型的传输速度。当然,这样的性能表现,不会限制到该技术在一些非同步功能中的应用。如远程的数据备份,就不一定需要很高的数据传输带宽。
总之,存储隧道技术,借用了一些IP网络的成熟性优势,但是并没有摆脱复杂而昂贵的光纤通道产品。
本地IP存储技术
这一技术是将现有的存储协议,例如SCSI和光纤通道,直接集成在IP协议中,以使存储和网络可以无缝的融合。当然,这并不是指,可以在企业IT系统中,把存储网络和传统的LAN,物理上合并成一个网络。而是指在传统的SAN结构中,以IP协议替代光纤通道协议,来构建结构上与LAN隔离,而技术上与LAN一致的新型SAN系统--IP SAN。
这种IP-SAN中,用户不仅可以在保证性能的同时,有效的降低成本,而且,以往用户在IP-LAN上获得的维护经验、技巧都可以直接应用在IP-SAN上。俯拾皆是的IP网络工具,使IP-SAN的网络维护轻松而方便。同样,维护人员的培训工作,也不会像光纤技术培训那样庞杂而冗长。
设想一下,一个大型企业的IT部门引入了一项新技术,并以此构建了底层的大型存储系统。却不需要调整现有的网络和主机,不需要改变应用软件,不需要增加管理工具,甚至不需要过多的技术培训。现有的网络管理工具和人员,完全可以应付这一切。这是一个多么诱人的系统升级方案!
与存储隧道技术相比,本地IP存储技术具有显著的优势。首先,一体化的管理界面,使得IP-SAN可以和IP网络完全整合。其次,用户在这一技术中,面对的是非常熟悉的技术内容:IP协议和以太网。而且,各种IP通用设备,保证了用户可以具有非常广泛的选择空间。事实上,由于本地IP存储技术的设计目标,就是充分利用现有设备,传统的SCSI存储设备和光纤存储设备,都可以在IP-SAN中利用起来。
本地IP存储技术,更进一步的模糊了本地存储和远程存储的界限。在IP-SAN中,只要主机和存储系统都能提供标准接口,任何位置的主机就都可以访问任何位置的数据,无论是在同一机房中,相隔几米,还是数公里外的异地。访问的方式可以是类似NAS结构中,通过NFS、CIFS等共享协议访问,也可以是类似本地连接和传统SAN中,本地设备级访问。
随着带有IP标准接口的存储设备的出现,用户可以单纯使用本地IP存储技术,来扩展已有的存储网络,或构建新的存储网络。以千兆以太网甚至万兆以太网为骨干的网络连接,保证了本地IP存储网络,能够以令人满意的效率工作。
选择哪一种技术
无论在哪个方面,用户总是要面对这样的问题。答案又总是,明确需求,从实际出发。简单的讲,存储隧道技术很好的利用了现有的IP网络,来连接距离较远的各个"SAN岛屿"。例如,对存储服务供应商来说,如果想向已经建有光纤SAN的用户,提供数据看护服务,存储隧道技术就是非常好的选择。
一些用户期望自己的IT系统具有很高的集成度,这一点是存储隧道技术难以达到的,而本地IP存储技术在这方面,具有相当强的竞争力。同时,这项技术也是实现从光纤SAN平滑升级到IP-SAN的最好选择。所以,越来越多的存储和网络厂商,开始对本地IP存储技术提供投入和支持。
NAS存储技术全面解析
2007年03月06日 06:57 中关村在线
作者:常疆
对于企业级存储产品,网络存储正成为主要的信息处理模式。因此当前越来越多的用户选用网络连接存储(NAS)技术或存储区域网络(SAN)。然而,企业究竟应该选用哪一个,这一直是业界内争论的焦点。
其实,NAS和SAN这两种技术各有千秋,用户无论是选择SAN还是NAS,都是由自身不同的条件和需求决定的。这里我们先来谈谈NAS存储技术。
NAS是什么?
很多读者都知道,NAS是英文“Network Attached Storage”的缩写, 中文意思是“网络附加存储”。按字面简单说就是连接在网络上, 具备资料存储功能的装置,因此也称为“网络存储器”或者“网络磁盘阵列”。
从结构上讲,NAS是功能单一的精简型电脑,因此在架构上不像服务器那么复杂,在外观上就像家电产品,只有电源与简单的控制钮,只需通过一根网线连接到终端客户机上,就可以完成NAS的安装控制。
NAS是一种专业的网络文件存储及文件备份设备,它是基于LAN(局域网)的,按照TCP/IP协议进行通信,以文件的I/O(输入/输出)方式进行数据传输。在LAN环境下,NAS已经完全可以实现不同平台之间的数据级共享,比如NT、UNIX等平台的共享。一个NAS系统,包括处理器,文件服务管理模块和多个硬盘驱动器(用于数据的存储)。 NAS 可以应用在任何的网络环境当中,主服务器和客户端可以非常方便地在NAS上存取任意格式的文件,包括SMB格式(WIndows)NFS格式(UnIx, LInux)和CIFS(Common Internet FIle System)格式等等。通过任何一台计算机,采用IE或Netscape浏览器就可以对NAS设备进行直观方便的管理。
NAS的技术特点:
NAS实际上是一个带有瘦服务器(Thin Server)的存储设备,其作用类似于一个专用的文件服务器。这种专用存储服务器不同于传统的通用服务器,它去掉了通用的服务器原有的不适用的大多数计算功能,而仅仅提供文件系统功能,用于存储服务,大大降低了存储设备的成本。这为方便存储到网络之间以最有效的方式发送数据,专门优化了系统硬软件体系结构,多线程、多任务的网络
%B2%D9%D7%F7%C
操作系统内核特别适合于处理来自网络的I/O请求,与传统的存储服务器相比,不仅响应速度快,而且数据传输速率也较高。
专用的存储设备
与传统以服务器为中心的存储系统相比,数据不再通过服务器内存转发(这会引起额外延迟和阻塞),直接在客户机和存储设备间传送(即所谓第三方传送)。这样,服务器仅起控制管理的作用,因而具有更快的响应速度和更高的数据带宽。另外,对服务器的要求降低,可大大降低服务器成本,这样就有利于高性能存储系统在更广的范围内普及应用。
协议独立 连接简单
NAS具有较好的协议独立性,支持UNIX、Netware、Windows nt、OS/2或Intranet Web的数据访问,客户端也不需要任何专用的软件,安装简易,甚至可以充当其它机器的网络驱动器,可以方便的利用现有的管理工具进行管理。
与传统的通用服务器不同,NAS专用服务器能在不增加复杂度,管理开销,降低可靠性的基础上,使网络的存储容量增加,具有非常好的可扩展性。由于不需要服务器提供更多的硬件及服务,使服务器的可靠性和I/O性能大大提高,能充分利用可得到的10M/100Mb或是1000Mb的网络带宽,有较大的数据吞吐量。
即插即用
NAS可以通过集线器或交换机方便地接入到用户网络上,是一种即插即用的网络设备。为用户提供了易于安装、易于使用和管理、可靠性高和可扩展性好的网络存储解决方案。 NAS
使文件访问操作更为快捷,并且易于从基础设施增加文件存储容量。因为NAS关注的是文件服务而不是实际文件系统的执行情况,所以NAS设备相当易于部署。
NAS设备与客户机之间主要是进行数据传输。传统的网络结构中,LAN/WAN上传输的大量数据被分成许多小的数据块。传输的处理过程需要占用处理器资源来中断和重新访问数据流。如果数据包的处理占用太多的处理器资源,则在同一服务器上运行的应用程序会受到影响。
软硬RAID
当然,目前也有一些简单、廉价的NAS系统采用了以软件构建RAID的方式,当系统负荷较重的时候,NAS系统中的处理器性能瓶颈也会引发传输速率的明显下降,在选择NAS系统时,这也是用户需要考虑的问题。
小结一下,NAS的六大特点:
1)低TCO(Total Cost of Ownership 总体拥有成本)
2)扩充性
3)跨平台
4)高可用性
5)高速度
6)方便的安装、维护、使用
NAS与SAN的区别
与SAN不同,NAS是部件级的存储方法。NAS将存储设备通过标准的网络拓扑结构连接到一群计算机上,所以NAS在适用性方面具有不少优势:
首先,NAS可以无需服务器直接上网,不依赖通用的操作系统,而是采用一个面向用户设计的、专门用于数据存储的简化操作系统,内置了与网络连接所需的协议,因此使整个系统的管理和设置较为简单。
其次NAS是真正即插即用的产品,并且物理位置灵活,可放置在工作组内,也可放在其他地点与网络连接。
NAS没有解决好的一个关键性问题,是其在备份过程中的带宽消耗,因为网络带宽要同时满足存储和正常的数据访问。现在,一个比较一致的看法是:NAS可以很经济地解决存储容量不足的问题,但难以获得满意的性能,对于关键事务应用而言,它必须使用专用的宽带网段; 因此,如果公司的发展将需要大量的NAS设备或是网络带宽需求超过千兆以太网,
就应该考虑最高端的存储解决方案SAN。不过,从适用性和TCO的角度出发,NAS依然应该是国内多数企业的首选结构。
总结
简单的说,NAS是通过网线连接的磁盘阵列,它具备了磁盘阵列的所有主要特征:高容量、高效能、高可靠。NAS是部件级的存储方法。NAS将存储设备通过标准的网络拓扑结构连接到一群计算机上,所以NAS可以无需服务器直接上网,不依赖通用的操作系统,而是采用一个面向用户设计的、专门用于数据存储的简化操作系统,内置了与网络连接所需的协议,因此使整个系统的管理和设置较为简单。其次NAS是真正即插即用的产品,并且物理位置灵活,可放置在工作组内,也可放在其他地点与网络连接。最重要的是,NAS能够满足那些无法承受SAN昂贵价格的中小企业的需求,具有相当好的性能价格比。
热门存储技术分析之SAS简介篇
SAS历史
SAS(Serial Attached SCSI)即串行SCSI技术,正逐步走入我们的视线。按照行业预期,SAS磁盘很快将取代目前的SCSI磁盘甚至FC磁盘而成为主流磁盘类型。可惜现在对SAS技术的讨论大多集中在应用层面,很少有具体的技术介绍。有鉴于此,笔者搜集整理了一些资料,权做抛砖引玉吧。
什么是SAS?简单的说,SAS是一种磁盘连接技术。它综合了现有并行SCSI和串行连接技术(光纤通道、SSA、IEEE1394及InfiniBand等)的优势,以串行通讯为协议基础架构,采用SCSI-3扩展指令集并兼容SATA设备,是多层次的存储设备连接协议栈。
为了更好的了解SAS技术,我们先回顾一下几个相关技术的发展过程。为了简明,这里只以表格形式体现。
首先是并行SCSI的发展过程。
正是SCSI-3指令集的出现,使得SCSI通讯出现了分层结构,并使SCSI指令通过其他物理媒介传输成为可能。事实上,SCSI-3指令自诞生之日就被一批新技术相中,此后出现的光纤通道技术、SSA技术、IEEE1394火线技术等,均受益于这一进步。
这些串行技术虽然从名字上看与SCSI毫不相干,但其实它们都支持SCSI-3作为应用层逻辑指令。下面是这些串行技术的简要回顾。
除了并行SCSI和几种应用SCSI-3指令集的串行技术,我们再简单回顾一下ATA技术的历史。
之所以罗列出以上三个表格,是因为SAS技术正是以串行机制为基础,同时支持SCSI和SATA的协议栈。了解以上三个方面的历史,有助于更方便的理解SAS技术的特点。
SAS概述
为了增强感性认识,我们先从外观入手,慢慢走进SAS技术内部。
上面这张照片就是SAS外部接口的样子。使用过InfiniBand交换设备的朋友一定觉得眼熟,没错,SAS外部接口和线缆就是借用了InfiniBand线缆的设计。不要小看这个只有并行SCSI一半大的接口。这种端口名叫"四路宽端口",以目前3Gb的SAS标准,它可以达到12Gb的带宽,也就是4 x 3Gb SAS通道。SAS技术与光纤通道一样,都采用8位到10位的编码机制,12Gb的物理层带宽换算到应用层就是1.2GB/s,这一根线就比目前主流的64位133MHz PCI-X总线还要快。
SAS磁盘上的端口也与并行SCSI有很大区别,倒是跟SATA磁盘的端口外观非常像。接脚最多的一组是电源接口,接脚较少的一组是SAS磁盘主端口,位置都与SATA磁盘电源和通讯端口完全一致。SAS磁盘与SATA磁盘接口的唯一区别是SAS磁盘还有第二个冗余端口,而SATA磁盘则只有一个端口。
说到这里,细心的读者会发现一个问题。既然SAS磁盘与SATA磁盘的端口数量都不一致,SAS背板又如何完整的兼容SATA磁盘呢?
不错,如果将SATA磁盘直接插入SAS背板,那么背板上的冗余端口将会悬空,也就是说SATA磁盘只连接在一个控制器上。这样虽然阵列控制器或主机可以使用这些SATA磁盘,但从结构上将无法实现冗余。
为此,一些提供SAS磁盘阵列的厂商,在兼容SATA磁盘时都在SATA磁盘托架上附加一个小小的电路板,我们姑且称之为"端口选择器"。其作用就是将SATA磁盘上的单端口与两路SAS同时连接,从而保证前端控制器或主机故障切换时,SATA磁盘仍然能保持连接。
当然物理连接的一致,只是SAS兼容SATA的必要条件。实际上,在整个SAS协议栈中从物理层到应用层,都贯穿着一套用来兼容SATA的协议。这套协议被称为STP(Serial ATA Tunneling Protocol)即"SATA隧道协议"。从这个命名就可以看出,SAS兼容SATA的方式其实就是在从磁盘端到主机端整条链路上,为SATA磁盘特地开辟出一条隧道。
除了端口设计,SAS和SATA磁盘的供电接口也可能是读者的疑问。如果SAS和SATA接口中已经包含有供电接脚,传统的四针式电源是否还有用呢?
对磁盘阵列来说,答案显然是没有。外置磁盘阵列早在SCSI和IDE年代,就已经不使用四针式电源接口了。但是服务器内部的非热插拔磁盘一般都采用这种接口,而且目前市面上一些SATA磁盘也带有这种电源接口。
这是因为SATA 1.0标准刚刚颁布的时候,还没有完全取代四针电源。无法摆脱四针式电源,就无法直接支持热插拔,因此SATA 1.0在当时被定义为仅主机内部连接的协议,不支持外部连接。不过这些都已经是历史,现在的SAS和SATA II版本中,四针电源完全没有存在的必要。
SAS工作原理
看过SAS设备外观,我们再看看SAS内部的一些工作原理。首先,让我们先搞清楚三个名词--"设备"(Device)、"端口"(Port)和"phy"。
"设备"就是指SAS连接末端的物理设备,可以是磁盘,也可以是主机里的SAS适配器,但不是Expander设备。暂时不晓得Expander为何物的读者不要着急,后面会介绍到。
"端口"是半物理半逻辑的概念。一方面,每个端口都对应一条实实在在的物理连接线;另一方面,每个SAS端口都有一个唯一的64位地址。这个地址的格式跟光纤通道里的WWN(严格的说,应该是WWPN,WWNN对应的更像SAS"设备"名)格式完全相同,由24位公司标志和40位厂商自定义字段构成。
"phy"虽然是个逻辑概念,但功能上很像光纤通道中的SFP。它对应的是一组SAS协议收发单元,由一个发送器和一个接收器组成。每个phy与远端的另外一个phy连接,构成一发一收两条链路。SAS支持全双工,就是说每个phy在以3Gbps发送的同时,还可以接收3Gbps的流量。
前面只是简单的罗列出设备、端口和phy各自的大致含义,很多问题还需要进一步说明一下。
前面我们已经提到,每颗SAS磁盘可以提供两个SAS连接。那么这两路SAS连接是同一个端口的两个phy,还是两个独立的窄端口呢?答案是后者。每颗SAS磁盘上有两个phy,这两个phy相互独立,被两个不同的端口使用。再明确点说,每颗SAS磁盘有两个地址,而不是一个。记住!每个地址,就对应一个端口。
地址和端口的对应关系,还能帮我们辨清SAS有效连接。Phy之间连通,并不等于端口之间能够正常通讯。只有当一个端口中所有phy都与对方端口中的phy连通后,两个宽端口的通讯才能正常进行。目前宽端口中最常见的,就是前面提到过的四路宽端口,不过一些SAS适配器厂商正在设计八路宽端口,未来可能会出现单根线缆2.4GBps甚至4.8GBps的SAS连接。
说到SAS适配器,还有个有趣的问题。目前主流SAS适配器一般支持8个phy,那么大家猜猜一般适配器支持多少端口地址呢?答案是可以动态设定。当适配器用来连接外部SAS设备时,需要用外部宽端口,这时适配器将8个phy划分成两个宽端口,支持两个端口地址。而当适配器连接内部SAS磁盘时,每个phy各自属于自己的端口,适配器将支持8个端口地址。
Expander及工作原理
至此,我们虽然明确了一些关于SAS的技术概念,但是还不能说对SAS技术有所了解。SAS技术的重点部分--Expander及其工作原理,才是熟悉SAS技术的关键。
SAS的连接模式与光纤通道的Fabric交换在很多方面十分相似。每一个SAS Expander就像一台光纤通道交换机,整个交换结构被称为"域"(Domain),其意义跟光纤通道技术中的"域"几乎完全一样。在光纤通道Fabric交换结构中,每个域有一个主成员,负责维护整个域的路由信息。
在SAS域中,起中心交换作用的Expander叫做"扇出Expander"(Fanout Expander)。SAS域中的"扇出Expander"既可以直接连接终端设备,也能连接其它"边缘Expander"(Edge Expander)。唯一与光纤通道Fabric不同的是,SAS域中可以没有"扇出Expander",而光纤通道Fabric域则不能没有主成员。没有"扇出Expander"的SAS域,最多只可以有两个"边缘Expander"。
理论上,每个"边缘Expander"可以支持128个端口,每个SAS域可以有128个"边缘Expander",这样每个SAS域中最多可以有128 x 128 = 16384个端口。当然,这并不是说每个SAS域可以连接16384个磁盘和SAS适配器,因为"扇出Expander"与"边缘Expander"相连接时,会占用一部分端口。
如果128个"边缘Expander"全部连接到"扇出Expander",内部互联至少要占用256个端口。也就是说,一个SAS域理论上可以连接16384 - 256 = 16128个终端SAS设备。对比光纤环路126个设备的上限,16128这个数字仍然是非常可观。
一些接触过SAS存储产品的读者,可能此时会心存疑惑。为什么SAS单域就可以支持如此众多设备,但实际应用中却经常看到多域模式的产品呢?这其实跟目前SAS芯片的制造工艺有关。
如果想制造出一个"扇出Expander"来支持128个"边缘Expander"的连接,那这款"扇出Expander"至少要支持128个phy(每端口至少一个phy)。而Expander之间的互联一般应采用至少四路宽端口,那就需要中心的"扇出Expander"支持4 x 128 = 512个phy(每端口四个phy)。而现在的实际情况是LSI公司的首款SAS芯片只能支持12个phy,刚刚好是个零头。
虽然SAS技术支持多个Expander芯片组成一个"Expander组"(Expander Set)来模拟一个Expander,但过多的芯片无疑会在制造工艺和成本方面带来麻烦。正是基于目前SAS芯片工艺水平,一些磁盘阵列厂商在设计阵列扩展时,大多采用多域结构。虽然在软件设计上费力多些,但却可以避开单芯片phy数量有限的问题。
所谓多域模式,在大多数情况下,其实也只不过是两个域而已,即每个阵列控制器各自属于自己的SAS域。因为目前的SAS交换技术还不支持域之间的路由,所以要想保证每个阵列控制器都能访问到所有磁盘,最多只能引入两个SAS域。
SAS与光纤通道技术
SAS技术借鉴了很多光纤通道技术的工作原理,对比光纤通道技术可以帮助我们更好的了解SAS技术优势。
前面已经提到,SAS端口地址与光纤通道中的WWN格式几乎完全一样,但其使用方式还是略有区别。SAS域中,端口地址直接作为交换路由表的内容,没有任何转换过程,而光纤通道的Fabric交换中并不直接采用WWN地址,而是要经过一个转换过程,由名字服务器对每个设备二次分发路由地址。光纤通道之所以这样设计原因很明显,因为在Fabric交换中要支持环路设备,所以不得不兼顾各种编址。
实际上在光纤通道交换域中,每个设备要经过三层登陆(FLOGI、PLOGI/LOGO、PRLI/PRLO)才能接入域中。这颇像一个臃肿的官僚机构,虽然体系庞大,却效率低下。而SAS技术舍弃了光纤通道中的仲裁环机制,从而大大简化了交换与地址的关系。在SAS域中,再也不需要关心那些恼人的繁文缛节了。
由于交换模式的简化,SAS设备与Expander之间不需要通过复杂的磋商,简单的握手之后就开始正常工作了,这就需要双方事前就很多方面必须达成一致共识。"服务级别"就是共识之一。
我们知道光纤通道可以支持五种不同级别的交换服务,分别是Class 1、2、3、4和6。这其中最常用到的是Class 3,即无确认的帧交换。这种模式好比不负责任的邮递员,反正有收信人和发信人互相确认,他自己根本不操心包裹是否完好。由于光纤通道技术中没有phy这个层次的设计,Class 3是效率最高的工作模式。而SAS则不然,借由phy的底层独占式互联机制,SAS中的服务级别更像Class 1模式,即虚拟电路全带宽连接。这种模式最能够充分保证每一组SAS设备之间的通讯带宽,同时数据的误传输概率也降到最低。
由于光纤通道技术中层次臃肿的通讯机制,主机端光纤适配器很难直接察觉到磁盘端设备状态的变化。就好比一个高高在上的官僚,很难知道底层普通市民的住址变迁。为此,光纤通道交换设计了"注册状态变更通知"(RSCN,Registered State Change Notification)机制。就是让每个普通市民在搬家之后,都要主动向政府汇报新地址,政府再将地址簿汇总更新,送交各位领导案头,而官僚们就依据案头的记录信息定位每个市民。
遗憾的是,这个RSCN会打断领导们正在进行的沟通,迫使领导们的工作重新开始,因此严重影响整个政府的办公效率。而在SAS域中,由于没有了复杂的沟通层次,每位领导都可以直接掌握市民的住址信息,办公效率自然就提高许多。
SAS与光纤通道相比,最明显的技术优势在于连接带宽。简单从数字上看,3Gb的SAS似乎不及4Gb的光纤通道,但光纤通道技术中端口已经是最基本的逻辑单元,也就是说,两个物理端口间的连接就只可能是4Gb带宽。而SAS则巧妙的在端口中引入phy这个新的逻辑单元,两个phy之间的互联带宽为3Gb,每端口可以包含4个或8个phy之多,这样两个SAS端口之间的连接很容易达到12Gb甚至24Gb超高带宽。
总之,SAS在借鉴光纤通道技术特点的同时,一方面大刀阔斧简化交换机制,从而提升了交换效率和可靠性,另一方面增加了phy虚拟电路单元,大大增加了性能扩展空间。
RAID磁盘阵列技术及数据恢复原理
人们逐渐认识了磁盘阵列技术。磁盘阵列技术可以详细地划分为若干个级别0-5 RAID技术,并且又发展了所谓的 RAID Level 10, 30, 50的新的级别。RAID是廉价冗余磁盘阵列(Redundant Array of Inexpensive
Disk)的简称。用RAID的好处简单的说就是:安全性高,速度快,数据容量超大。
某些级别的RAID技术可以把速度提高到单个硬盘驱动器的400%。磁盘阵列把多个硬盘驱动器连接在一起协同工作,大大提高了速度,同时把硬盘系统的可靠性提高到接近无错的境界。这些“容错”系统速度极快,同时可靠性极高。
由磁盘阵列角度来看
磁盘阵列的规格最重要就在速度,也就是CPU的种类。我们知道SCSI的演变是由SCSI 2 (Narrow, 8
bits, 10MB/s), SCSI 3 (Wide, 16bits, 20MB/s), Ultra Wide (16bits, 40MB/s), Ultra 2 (Ultra Ultra Wide,
80MB/s), Ultra 3 (Ultra Ultra Ultra Wide, 160MB/s),在由SCSI到Serial I/O,也就是所谓的 Fibre Channel
(FC-AL, Fibre Channel - Arbitration Loop, 100 – 200MB/s), SSA (Serial Storage Architecture, 80 – 160
MB/s), 在过去使用 Ultra Wide SCSI, 40MB/s 的磁盘阵列时,对CPU的要求不须太快,因为SCSI本身也不是很快,但是当SCSI演变到Ultra 2, 80MB/s时,对CPU的要求就非常关键。一般的CPU, (如 586)就必须改为高速的RISC CPU, (如 Intel RISC CPU, i960RD 32bits, i960RN 64 bits),不但是RISC CPU,
甚至于还分 32bits, 64 bits RISC CPU 的差异。586 与 RISC CPU 的差异可想而知 ! 这是由磁盘阵列的观点出发来看的。
由服务器的角度来看
服务器的结构已由传统的 I/O 结构改为 I2O ( Intelligent I/O, 简称 I2O ) 的结构,其目的就是为了减少服务器CPU的负担,才会将系统的 I/O 与服务器CPU负载分开。Intel 因此提出 I2O 的架构,I2O 也是由一颗 RISC CPU ( i960RD 或I960RN ) 来负责 I/O 的工作。试想想若服务器内都已是由 RISC i960
CPU 来负责 I/O,结果磁盘阵列上却仍是用 586 CPU,速度会快吗 ?
由操作系统的角度来看
SCO OpenServer 5.0 32 bits
MicroSoft Windows NT 32 bits
SCO Unixware 7.x 64 bits
MicroSoft Windows NT 2000 32 bit 64 bits
SUN Solaris 64 bits ……..其他操作系统
在操作系统都已由 32 bits 转到 64 bits,磁盘阵列上的CPU 必须是 Intel i960 RISC CPU才能满足速度的要求。586 CPU 是无法满足的!
磁盘阵列的功能
磁盘阵列内的硬盘连接方式是用SCA-II整体后背板还是只是用SCSI线连的?在SCA-II整体后背板上是否有隔绝芯片以防硬盘在热插拔时所产生的高/低电压,使系统电压回流,造成系统的不稳定,产生数据丢失的情形。我们一定要重视这个问题,因为在磁盘阵列内很多硬盘都是共用这同一SCSI总线
一个硬盘热插拔,可不能影响其它的硬盘!要么是热插拔或带电插拔?硬盘有分热插拔硬盘,80针的硬盘是热插拔硬盘,68针的不是热插拔硬盘,有没有热插拔,在电路上的设计差异就在于有没有保护线路的设计,同样的硬盘拖架也是一样有分真的热插拔及假的热插拔的区别。
磁盘阵列内的硬盘是否有顺序的要求?也就是说硬盘可否不按次序地插回阵列中,数据仍能正常的存取?很多人认为不是很重要,不太会发生,但是可能会发生的,我们就要防止它发生。假如您用六个硬盘做阵列,在最出初始化时,此六个硬盘是有顺序放置在磁盘阵列内,分为第一、第二…到第六个硬盘,是有顺序的。
如果您买的磁盘阵列是有顺序的要求,则您要注意了:有一天您将硬盘取出,做清洁时一定要以原来的摆放顺序插回磁盘阵列中,否则您的数据可能因硬盘顺序与原来的不苻,磁盘阵列上的控制器不认而数据丢失!因为您的硬盘的SCSI ID号乱掉所致。现在的磁盘阵列产品都已有这种不要求硬盘有顺序的功能,为了防止上述的事件发生,都是不要求硬盘有顺序的。
我们将讨论这些新技术,以及不同级别RAID的优缺点。我们并不想涉及那些关键性的技术细节问题,而是将磁盘阵列和RAID技术介绍给对它们尚不熟悉的人们。相信这将帮助你选用合适的RAID技术。
硬盘数据跨盘(Spanning)
数据跨盘技术使多个硬盘像一个硬盘那样工作,这使用户通过组合已有的资源或增加一些资源来廉价地突破现有的硬盘空间限制。
4个300兆字节的硬盘驱动器连结在一起,构成一个SCSI系统。用户只看到一个有1200兆字节的C盘,而不是看到C, D, E, F, 4个300兆字节的硬盘。在这样的环境中,系统管理员不必担心某个硬盘上会发生硬盘安全检空间不够的情况。因为现在1200兆字节的容量全在一个卷(Volume)上(例如硬盘C上)。系统管理员可以安全地建立所需要的任何层次的文件系统,而不需要在多个单独硬盘环境的限制下,计划他的文件系统。
硬盘数据跨盘本身并不是RAID,它不能改善硬盘的可*性和速度。但是它有这样的好处,即多个小型廉价硬盘可以根据需要增加到硬盘子系统上。
磁盘阵列分类
硬盘分段(Disk Striping, RAID 0)
硬盘分段的方法把数据写到多个硬盘,而不是只写到一个盘上,这也叫作RAID O,在磁盘阵列子系统中,数据按系统规定的“段”(Segment)为单位依次写入多个硬盘,例如数据段1写入硬盘0,段2写入硬盘1,段3写入硬盘2等等。当数据写完最后一个硬盘时,它就重新从盘0的下一可用段开始写入,写数据的全过程按此重复直至数据写完。
段由块组成,而块又由字节组成。因此,当段的大小为4个块,而块又由256个字节组成时,依字节大小计算,段的大小等于1024个字节。第1~1024字节写入盘0,第1025~2048字节写盘1等。假如我们的硬盘子系统有5个硬盘,我们要写20,000个字节
总之,由于硬盘分段的方法,是把数据立即写入(读出)多个硬盘,因此它的速度比较快。实际上,数据的传输是顺序的,但多个读(或写)操作则可以相互重迭进行。这就是说,正当段1在写入驱动器0时,段2写入驱动器1的操作也开始了;而当段2尚在写盘驱动器1时,段3数据已送驱动器2;如此类推,在同一时刻有几个盘(即使不是所有的盘)在同时写数据。因为数据送入盘驱动器的速度要远大于写入物理盘的速度。因此只要根据这个特点编制出控制软件,就能实现上述数据同时写盘的操作。
遗憾的是RAID 0不是提供冗余的数据,这是非常危险的。因为必须保证整个硬盘子系统都正常工作,计算器才能正常工作,例如,假使一个文件的段1(在驱动器0),段2(在驱动器1),段3(在驱动器2),则只要驱动器0, 1, 2中有一个产生故障,就会引起问题;如果驱动器1故障,则我们只能从驱动器物理地取得段1和段3的数据。幸运的是可以找到一个解决办法,这就是硬盘分段和数据冗余。
版权声明:本文标题:10项主流存储技术分析 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.freenas.com.cn/jishu/1709727307h544845.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论