五月激情开心网,五月天激情社区,国产a级域名,婷婷激情综合,深爱五月激情网,第四色网址

云數據中心方案優選九篇

時間:2023-01-06 10:06:00

引言:易發表網憑借豐富的文秘實踐,為您精心挑選了九篇云數據中心方案范例。如需獲取更多原創內容,可隨時聯系我們的客服老師。

云數據中心方案

第1篇

關鍵詞:802.1Qbg;VEB(虛擬以太網交換機Virtual Ethernet Bridging);VEPA(虛擬以太網端口匯聚器Virtual Ethernet Port Aggregator);Multi-Channel(多通道)

中圖分類號:TP308 文獻標識碼:A 文章編號:1674-7712 (2013) 04-0046-02

隨著服務器虛擬化和網絡虛擬化的日益蓬勃發展,云計算在發展過程中出現了一臺物理機上部署虛擬機過多vSwitch占用服務器大量物理資源的問題,虛擬機與外部網絡對接、關聯和感知不明確不可控的問題。如何解決以上問題,Cisco公司提出了802.1Qbh、802.1BR和VN-Tag技術方案,而HP(H3C)/IBM提出了802.1Qbg的技術解決方案。

一、802.1Qbg技術

數據中心的變革歷經了服務器虛擬化、云計算等過程,而相應的交換設備也隨之悄然演化著,標準的制定和推出為這一變化指出改革方向,802.1Qbg順應改革浪潮及時跟進,對數據中心部署云時遇到的難題給出了解決方案。HP(H3C)/IBM對一臺物理機上部署虛擬機過多vSwitch占用服務器大量物理資源的問題,虛擬機與外部網絡對接、關聯和感知不明確不可控的問題,提出盡量將網絡功能移植回物理網絡,推出了802.1Qbg標準。

802.1Qbg在交換功能上,除了兼容vSwitch原有的VEB模式(Virtual Ethernet Bridging)模式外,還增加了VEPA(Virtual Ethernet Port Aggregator)和Multi-Channel工作模式共3種。VEB模式是大家部署虛擬服務器時常見的模式,802.1Qbg兼容這種模式。此種模式下,同一臺物理機上同一VLAN的虛擬服務器之間通信是直接經過該服務器內部的vSwitch轉發,沒有經過外部網絡設備。雖然由于vSwitch這一網元數量的增加,可以拓展虛擬化網絡規模,但也因為內部虛擬服務器數據交換不可控,QOS和網絡安全控制是個難題。

VEPA模式主要是針對之前已部署虛擬化的企業推出的一種解決方案。HP(H3C)/IBM基于IEEE標準,提出在沒有增加新的二層標簽基礎上,只對VMM軟件和交換機軟件簡單升級就可實現VEPA轉發功能。此種方案對已部署虛擬化服務器的用戶影響較小,二次投入也不多。VEPA方案既可以采用純軟件方式,也可是采用硬件方式實現。經HP實驗室測試,該方案報文轉發性能比傳統vSwitch提升12%或更高。VEPA要求VM服務器交換數據流必須經過外部Bridge,然后再原路返回VM響應服務器,路徑的一進一出就為原來意義上的vSwitch減輕了負擔,同時可以對相應端口進行Qos、ACL策略配置,IDS/IPS和防火墻等也可以對此端口進行安全管理,不但可控還節約了投資。

Multi-Channel工作模式是802.1Qbg的第三種模式,它是VEPA的一種增強模式。此種模式去除了服務器內部網絡功能,而以S-Channel方式將虛擬服務器與外部網絡連接起來,通過VDP(VSI Discovery Protocol)和CDCP(S-Channel Discovery and Configuration Protocol)協議報文交換,最終將將虛擬端口(vPort)終結在物理交換機端口上。多通道模式允許VEB、VEPA、Director IO同時存在,也允許各種組合方式存在。它將網絡端口劃分為并行獨立的邏輯通道并在邏輯上隔離,通道可按用戶要求隨意安排成VEB、VEPA或Director IO的一種。多通道技術實現了VEB和VEPA共存一機的要求。值得一提的是,該方式需網卡和交換機支持S-TAG和QinQ功能,所以對新部署虛擬化技術的且要求比較多的用戶比較適合。

二、802.1Qbg在云數據中心的應用測試

H3C公司作為HP的子公司,在802.1Qbg技術解決方案上做了大量的工作。筆者有幸作為一名測試用戶申請試用了H3C的虛擬化數據中心平臺。該公司為體驗用戶搭建了云數據中心的測試平臺,VMM軟件是基于KVM(IBM虛擬化)核心源代碼開發的H3C虛擬化系統,管理軟件是iMC CRM管理平臺,網絡平臺是基于40G和100G的 H3C 12500路由交換為核心,服務器是美國HP制造的多臺H3C服務器,并啟用了各種后臺存儲設備。在該試用平臺上,廠家利用多種基于802.1Qbg解決方案的技術,給用戶提供多種體驗環境。測試中,VMM遷移順暢,業務實時工作不中斷;虛擬機部署方便容易;各種網絡管理策略可在管理平臺上統一制定模板;實時對端口監測,發現異常及時報警。經觀察,多通道技術對虛擬化應用支持力度最為強勁不但兼容了原有VEB,還可利用VEPA技術,在交換機上對虛擬服務器網絡端口做各種策略,Qos、ACL保障極為便利,端口流鏡像、報文統計、安全策略下發管理上極為方便。

數據中心虛擬化目前最大的問題是虛擬機遷移不可控的問題,而HP(H3C)/IBM在VMM遷移(vMotion)這個問題上,找到了一條比較明確的解決方案:即利用iMC CRM管理虛擬機狀態,同時對可遷移的資源統一部署,利用802.1Qbg技術制定相應網絡遷移策略和路徑,做到可控的遷移,明確了VMM遷移的范圍和可利用資源。

目前H3C iMC系統能夠維護多達數萬個虛擬機接入,基于層級化的網絡管理模式,未來iMC將可管理虛擬機數量擴展到數十萬甚至數百萬,做到跨三層大范圍的自動化配置與遷移,而這一切的實現都離不開802.1Qbg技術對數據中心虛擬化的貢獻。

本人在測試中,感覺802.1Qbg對KVM、VMware支持力度很大,而對Microsoft的HyperV 3支持力度偏弱。如果廠家能及時跟進,加大與HyperV可擴展交換機技術的融合,開發相應的擴展程序包或硬件,將會是個不錯的選擇。畢竟微軟的用戶是眾多的,而Cisco、NEC和Inmon也都為此開發了相關擴展包組件或硬件。

三、結束語

802.1Qbg解決方案將服務器虛擬交換機功能大部分或完全移植回物理網絡,提升了服務器性能,明晰了網絡與服務器的界限,增強了虛擬服務器與網絡數據交換的可控性和安全性,降低了對安全設備重復投資的要求。802.1Qbg該技術和Cisco的VN-TAG如果互相借鑒的話,將會更有利于數據中心虛擬化的發展,EVB標準將會更加融合和發展。

參考文獻:

[1]李存軍.數據中心云接入技術比較[J].計算機光盤軟件與應用,2012,23.

[2]H3C EVB技術體系介紹[J].IP領航,2012,6.

[3]H3C EVB數據中心應用模型[J].IP領航,2012,6.

[4]錢景輝.數據中心在云計算需求下的技術分析[J].現代計算機,2012,07.

[5]姜建偉.企業數據中心網絡虛擬化環境中邊界感知安全技術和應用[J].計算機應用與軟件.

[6]吳晨,朱志祥,胡清俊.一種云數據中心虛擬交換的解決方案[J].西安郵電學院學報,2011,9,16,5.

[7]梁凱鵬.基于VEPA的云計算數據中心的設計與實現[J].廣東通信技術,2011,09.

[8]Shehzad Merchant VEPA:虛擬交換解決之道[J].網絡世界,2011,1,17第028版.

[9]李晨,許輝陽.云計算數據中心組網技術研究[J].電信網技術,2012,6,6.

第2篇

【關鍵詞】 虛擬化 云計算 數據中心 資源池

一、高職院校云計算數據中心建設需求分析

高職院校近幾年來得到了迅猛發展,特別是自2006年國家支持建設100所示范高職院校以來,高職院校在校園信息化建設、IT實訓基地建設等方面投入了大量資金,大大改善了IT相關專業和課程教學校內實訓條件,符合高職教育對應用型、技能型人才培養所需實訓條件建設的要求,為“工學結合”、“做教學”等教學組織與實施創造了良好的實訓環境,也提高了校園網絡服務教學管理的效益,但在傳統的信息中心建設與管理、IT實訓室建設與維護過程中大都遇到以下問題:

(1)幾乎每年都要進行硬件采購、軟件升級,做計劃、招投標和建設周期較長,而且不斷擴容的軟硬件設施給學校增加了投資成本,并給網管人員帶來越來越大的管理困難。

(2)服務器利用率低、運維成本高,多數服務器業務單一,系統維護、升級和擴容等都會帶來業務暫停等問題。

(3)服務器間的兼容性差,原有系統遷移到新平臺上,就會帶來新老系統兼容等問題。

(4)存儲設備數量多、架構不統一。學校大量各類資源分布存儲在不同的存儲網絡上,既不利于業務管理、又存在信息共享困難等問題。

(5)信息中心大量IT資源對各二級部門的貢獻不夠,不能夠發揮資源效益,以減少二級學院IT投資特別是計算機類機房的重復投資問題。

能否設計一種新的技術架構和運行管理平臺來克服以上問題?

有,那就是構建基于虛擬化技術的云計算平臺,建設一個集成統一的信息化服務數據中心[1],將學校有限的IT軟硬件資源,通過虛擬化技術,構建成“無限”應用的各種資源池,利用云計算提供的SaaS(Software as a Service,軟件即服務)、PaaS(Platform as a Service,平臺即服務) 和IaaS(Infrastructure as a Service,架構即服務)三種服務模式,實現對客戶“按需分配”,滿足對學校IT資源的各種應用。

但由于云計算平臺建設投入較大,技術與管理復雜,是目前制約高職院校云計算數據中心建設的一個主要原因。根據高職院校的辦學特點,云計算數據中心建設可以按照私有云和共有云相結合的設計方案,采用SaaS 和PaaS服務模式為校內師生云客戶端提供上課和實訓所需的軟件與工具在線服務,各二級學院或部門不再需要單獨采購大量本地存儲磁盤和預裝教學需要的種類繁多的平臺系統軟件和開發工具,更不用擔心服務器硬件擴展、軟件升級等維護問題,計算機機房中上課所需要的課程資源、軟件工具等均可存儲在云計算數據中心,機房中的電腦和師生的移動設備如云終端設備、筆記本電腦等不再需要單獨安裝大量的軟件資源,數據中心統一配備云服務專業技術團隊負責維護和管理系統運行,這無疑會大大節省的學校在信息化機房建設的資金和時間投入,也大大提高了學校IT資源的整體效益。

二、云計算三種服務模式在數據中心建設中應用分析

目前,云計算服務模式由如下三種架構,用戶可以根據自己的業務特點選擇一種或多種服務模式,這里根據高職院校數據中心建設與師生需求特點簡要分析這三種云計算服務模式的應用區別。

2.1 SaaS模式

SaaS的技術特點是:云數據中心根據云客戶端的軟件應用申請下發相應的軟件系統和軟件工具,對使用者來說,節省了在本地網絡購置服務器硬件和軟件以及應用授權上的開支,也無需單獨安裝工具和軟件;而對云數據中心來說,只不過是一個客戶應用請求而已,無需額外增加投資,只需下發一個服務即可。

譬如,學校計算機實訓機房,可以根據課程所需要的軟件環境,隨時向云數據中心在線動態申請相應的軟件,數據中心通過虛擬化桌面,給師生終端批量下發上課需要的教學與實訓軟件即可,完成教學和實訓任務后可以隨時釋放這些應用,這無疑會大大減少二級部門在實訓機房上的投資,也減輕了機房管理團隊的工作壓力。

2.2 PaaS模式

PaaS模式依賴于在云數據中心構建的一套完整的虛擬化平臺為客戶提供所需要的開發工具如Apache、MySQL、JBoss Application Server以及應用程序開發庫和接口等資源,云客戶端可以在線設計、創建、開發、部署以及管理自己的應用,但無需要管理這些平臺運行環境。譬如,學校師生可以充分利用PaaS服務模式,無需搭建和管理自己的軟件開發環境,只需在線申請使用云數據中心提供的多樣性開發平臺即可,這為師生從事軟件開發以及項目研究提供了靈活豐富的資源平臺。

2.3 IaaS模式

IaaS是以提供網絡基礎設施如CPU、內存、網絡以及存儲等IT資源作為服務形式,云用戶可以向云數據中心申請這些軟硬件資源,構建屬于自己的虛擬運行平臺,用戶可以在該平臺上部署運行自己的應用軟件,并能夠控制屬于自己租約的IT資源。譬如,學校可以針對某些課程構建專門的實訓室,通過申請IaaS,二級學院可以擁有自助式服務模式,在該平臺上通過云計算中心提供的基礎設施,構建一套適合上課和實訓的虛擬實訓室,既能夠滿足正常上課和實訓需要,又能提供師生軟件項目研發等需要。

三、虛擬化技術在數據中心建設中的應用分析

虛擬化,就是通過虛擬化軟件在一臺計算機或服務器物理主機上虛擬出多臺可以同時運行多種操作系統的邏輯主機,如圖1所示,每臺虛擬的邏輯主機上的應用系統可以相互獨立地運行。虛擬化技術實現了對IT軟硬件資源的動態按需分配、靈活規劃調度、虛擬機間資源共享等功能,大大提高了對IT資源利用效率[2]。

在學校云計算數據中心部署虛擬化,可實現對學校信息化基礎設施等資源的利用、減少軟硬件采購資金的重復投入、節省機房空間、提高設備集成性、減少能耗、降低管理成本、縮短建設周期等。利用虛擬化技術,將一組物理硬件資源組織成為邏輯上的資源池(Resurce Pool),并通過管理平臺,實現動態、均衡分配資源池中資源,也可根據業務需求和業務重要程度預設服務策略,通過監控資源池的使用情況,智能地為虛擬機調配資源,從而實現對IT資源的有效、高效利用和管理。

四、基于虛擬化技術的云計算數據中心建設方案

學校在進行云計算數據中心設計時,應拋棄傳統的計算、存儲和網絡架構模式,將計算與交換集成在一個統一的網絡平臺上,實現網絡融合、減少網絡匯聚與接入層的分段,在統一的管理域內,利用數據交換核心,減少I/O適配器、布線及設備,實現交換、存儲與高性能數據計算,并實現對云數據中心軟硬件資源的集中管理。主要建設模塊包括:

4.1云計算基礎架構

云計算基礎架構是利用虛擬化技術,對服務器資源、存儲與災備系統、網絡設施等進行有機整合,形成虛擬化計算資源池、存儲資源池、網絡資源池等共享資源平臺,對云客戶端實現需支付服務、自動分發部署,并具備容災熱備、異構遷移等功能。

4.2云計算運營行管理平臺

云計算數據中心由大量的物理與虛擬化IT資源,為了保障整體系統的正常運行,必須構建一套對這些IT資源進行統一運行監控、資源調度、服務支付、故障處理、計費記賬、性能優化、配置修改、安全策略等管理平臺,使日常運維、管理、控制等更加科學、有效和及時。

圖2是學校云計算數據中心網絡架構拓撲[2]圖。

1、虛擬化基礎架構設計

(1)虛擬化計算資源池設計

計算虛擬化即服務器虛擬化,是通過虛擬化操作系統來實現的。在服務器節點或服務器資源池上,安裝虛擬軟件系統如vSphere,對宿主服務器的CPU、內存、網卡以及I/O等進行虛擬化處理,安裝多個可運行不同操作系統的邏輯服務器(如圖3所示),并根據業務劃分安裝相應的應用軟件和工具,如此,一臺物理服務器就似乎變成了多臺服務器在運行,從而大大提高了計算資源的利用率,降低了采購和建設成本,增強了系統的配置靈活性和可用性。

設計要點:

1)企業級刀片服務器控制箱,配備冗余電源、風扇和機箱管理模塊,內置FCoE交換機,配置足夠的內部10Gb服務器端口和萬兆SFP+模塊。

2)物理服務器配置足夠的CPU和內存,支持虛擬化集群,以保障虛擬化平臺的構建。

3)多路虛擬CPU(vSMP),以快速部署批量并發云端用戶的服務請求。

4)在線添加虛擬CPU(vCPU), 虛擬內存(vMemory)和虛擬磁盤(vDisk),保證系統無間斷運行。

5)支持在線虛擬機間、虛擬機與物理機間業務遷移,實現對業務動態調控、負載均衡處理。

6)支持Windows、Linux等主流操作系統,并兼容VMWare、Hyper-V、RHEL-KVM以及華為等業界主流虛擬化運行管理平臺

(2)存儲資源池設計

存儲資源池是云計算數據中心建設的重要內容,是提供云端信息服務、數據存儲與管理、數據共享與檢索以及數據災備的重要平臺。采用光纖存儲系統SAN架構,配置冗余高速背板帶寬的光纖交換機,滿足不同云計算用戶的訪問。設計要點:

1)具有高速緩存的SAS磁盤陣列控制器,支持多種RAID方式,具有在線動態調整LUN的容量、在線修改RAID級別等功能。

2)支持FC、NAS、iSCSI應用以及配置10Gb/s FCoE、8Gb/s FC光纖通道等端口。

3)支持固態硬盤(SSD)、高速硬盤(比如15000轉)、高容量SATA硬盤

4)實現數據在不同LUN之間的動態、在線無中斷數據遷移

5)具備定期增量備份(Incremental Backup)、全量備份(Full Backup)和差異備份(Differential Backup)等備份方式。

6)基本的硬件冗余,如緩存、處理器、適配器卡、電源及風扇等。

(3)桌面虛擬化設計

桌面虛擬化[4]是云客戶端共享云數據中心資源的重要應用平臺,是云數據中心根據用戶業務需要,對大批量并發用戶動態、統一或個性化下發桌面應用的手段,包括桌面操作系統、應用程序等應用,減少客戶端預裝系統,使用戶云端設備成為瘦客戶端(Thin Client),網管人員可以通過專業化管理工具如VMware vCenter實現對云平臺上的客戶端集中管理。設計要點包括:

1)可按用戶不同業務,將一朵“大云”切分成多個邏輯“子云”,各“子云”在資源申請與分配、生成與交付等管理流程,可獨立于上層“大云”系統門戶,以增強服務支付的靈活性。

2)虛擬桌面系統能夠支持多種前端協議,如HP RGS、PCOIP、RDP等。

3)支持內置企業級數據庫功能,虛擬桌面無需再購買第三方的數據庫管理系統

4)能夠快速分發應用程序,并可以運行在PC、移動終端、云終端等不同操作系統平臺上,能夠轉換成EXE或MSI格式,方便用戶個性化應用和分發(如計算機機房內部)。

2、 統一交換網絡設計

隨著10GB以太網應用的普及,基于FCoE和無損10GB以太網技術已經在云計算數據中心建設中被采用,為實現將SAN存儲數據流、計算數據流和普通交換數據流整合到一個統一網絡交換平臺提供了較充裕的帶寬,既降低了網絡建設的復雜度與投資,又能滿足大量云客戶端對高帶寬、低延遲、安全性和可靠性的需求。核心交換機和存儲交換機SAN應配置足夠的10GB網絡端口,用于與計算資源池中的服務器、存儲資源池中控制器、連接,并具備跨機箱10GB智能堆疊、支持FCoE協議等。

3、統一管理系統設計

虛擬化數據中心IT資源龐大,為了便于資源管理、動態調配,需要一套功能強大的云管理工具平臺,實現對數據中心的計算資源池、網絡資源池、存儲資源池的統一管理、優化和協調,并具備虛擬桌面分發、資源運行監控、安全策略配置及資源優化等功能,從而提高對云計算數據中心運行管理的自動化和智能化。

4、 安全策略

傳統安全措施仍需要在云計算中心進行強化,包括防火墻安全策略、入侵防御系統IPS、VPN隧道技術、防病毒軟件、數據災備、接入認證等措施,保障前端網絡的接入安全。但在虛擬化運行平臺上,由于大量虛擬化系統的應用以及大量云端用戶開放性地接入數據中心,這就對網絡安全提出了更高的要求,因此,數據中心安全方案可以選擇基于虛擬化技術平臺的深度安全管理軟件,如趨勢科技的Deep Security、VMware的VMware vShield等,保障后端虛擬化系統和各種資源池的運行安全。

五、結語

以往校園數據中心建設、業務擴展等都需要重新進行大量軟硬件的采購預算,即使是一個業務量也要走一遍從申報計劃、制定標書、招投標、采購等一系列建設流程,大量這類“單個業務”占據了不少軟硬件資源,利用率低下,運行成本和管理成本高。

因此,采用虛擬化和云計算技術,只需在原有系統上添加一套虛擬計算和服務即可。譬如,過去每年都要投入大量人力、物力、時間等規劃建設計算機實訓室或升級原有計算機實訓室的運行平臺,如今,利用云計算數據中心,采用SaaS或PaaS模式,二級學院隨時可以構建教學實訓環境,并且隨時得到最新應用系統,讓各二級學院計算機相關實訓室由“有型”變得“無型”、由固定變成可移動。

參 考 文 獻

[1]孟凡立 徐明 張慰.基于云計算的高校數據中心設計與實現[J].現代教育技術.2012(3)99-103

[2]李丹 陳貴海 任豐原 蔣長林 徐明偉.數據中心網絡的研究進展與趨勢[J].計算機學報.2014(2) 259-274

第3篇

【關鍵詞】 機房蓄電池;在線檢測;維護;集中管理

0 引言

隨著各行業數據中心建設的飛速發展,數據中心機房的設備承載壓力逐漸擴大,高頻開關電源、不間斷電源(UPS)等電源設備的數量也隨之急劇增加,從而使得蓄電池得到了廣泛的應用。合理可靠地對電池進行管理和維護,能夠保證電池有較長的使用壽命,從而達到保證核心設備不間斷用電并節約維護資金的目的。因此,在核心設備用電源系統的維護中,蓄電池的維護管理占了相當大的比重,怎樣才能充分發揮蓄電池作為后備電源的作用,使用中盡量達到或接近其設計壽命,就成了維護人員需要深入探討的一個問題。

1 影響電池壽命的因素

目前,閥控密封鉛酸蓄電池使用較多的是2V系列和12V系列。這兩種電池的壽命差別較大,一般2V系列的設計壽命是8~10年,12V系列的設計壽命是3~6年。考慮到價格因素,目前在在系統中對UPS一般配置的是12V系列的電池,對高頻開關電源一般配置的是2V系列的電池。

一般蓄電池制造商提供的蓄電池設計壽命為特定環境下的理論值,實際使用壽命與電池室的環境溫度、整流器的參數設置、日常維護以及運行狀況有很大關系。

1.1 環境溫度的影響

環境溫度對蓄電池使用壽命的影響很大。環境溫度的升高,將加速電池板柵的腐蝕和增加電池中水分的損失,從而使電池壽命大大縮短。一般情況下,溫度每升高10℃,電池使用壽命將減少50%,溫度越高影響越大。在核心設備用閥控密封鉛酸蓄電池行業標準YD/T799-2002中規定,高溫加速浮充壽命試驗是以環境溫度55℃下42天的一個充放電試驗折合一年的正常使用壽命,由此可見高溫對電池壽命的影響。蓄電池的最佳使用環境溫度為20~25℃。

1.2 充電不足

在正常條件下,電池在放電時形成硫酸鉛結晶,在充電時能較容易地還原為鉛。如果使用不當,例如長期處于充電不足的狀態,負極就會逐漸形成一種粗大堅硬的硫酸鉛,它幾乎不溶解,用常規方法很難使它轉化為活性物質,從而減少了電池容量,甚至成為電池壽命終止的原因,這種現象稱為極板的不可逆硫酸鹽化。

1.3 過度充電

蓄電池在長期過充電狀態下,正極因析氧反應,水被消耗,氫離子濃度增加,導致正極附近酸度增加,板柵腐蝕加速,使電池容量降低。同時,因水損耗加劇,使蓄電池有干涸的危險,從而影響電池壽命。

1.4 過放電

電池的過放電主要發生在交流電源停電后,蓄電池長時間為負載供電。當蓄電池被過度放電到終止電壓或更低時(源于電源本身對電池放電終止電壓設置不準,或有的根本沒有過放電保護裝置),導致電池內部有大量的硫酸鉛被吸附到蓄電池的陰極表面,硫酸鉛是一種絕緣體,必將對蓄電池的充放電性能產生很大的負面影響,因此,在陰極上形成的硫酸鉛越多,蓄電池的內阻越大,蓄電池的充放電性能越差,使用壽命就越短。一次深度的過放電可能會使電池的使用壽命減少1~2年,甚至造成電池的報廢。

1.5 長期處于浮充狀態

蓄電池在長期浮充狀態下,只充電而不放電,其對電池的影響與過度充電相同。

2 在使用和維護過程中應注意的一些事項 2.1 使用環境

蓄電池應安裝在遠離熱源和易產生火花的地方,最好在清潔的環境中使用,電池室應通風良好,無太陽照射,溫度保持在20~25℃。

2.2 電源的參數設置

一些參數如浮充電壓、均充電流、均充頻率和時間、轉均充判據、溫度補償系數、直流過壓告警、欠壓告警、充電限流值等要跟各蓄電池廠家溝通后確定。

2.3 容量配置

一些電源所配置電池的容量偏小,致使交流停電時電池大電流放電,影響電池使用壽命。通常電池配置容量應在8~10小時率。

2.4 日常維護

也許是受到了一些電池廠家以前對閥控式蓄電池冠以“免維護”名稱的影響,個別維護人員便錯誤地認為閥控式電池無須維護,從而對其不聞不問。其實,蓄電池的變化是一個漸進的過程,為保證電池的良好狀態,作好運行記錄是相當重要的。每月應檢查的項目如下:單體和電池組浮充電壓;電池的外殼有無變形、膨脹、滲液;極柱、安全閥周圍是否有滲液和酸霧溢出;連接條是否擰緊。

2.5 實時數據監測

實時監測單節電池的電壓,整組電壓、電流、環境溫度。實時監測電池運行狀態,過限值告警,并及時處理。

2.6 均衡維護

前面已經講解過通訊設備的供電系統原理,由于整流設備是對整組電池進行充放電,充電設備只對其整組的端電壓實時采集記錄,智者整組端電壓達到一定電壓時,充電設備才會認為完畢,然而在整個充電過程中,每個電池的參數或多或少存著差別,則有個別電池一定會過沖、或欠沖,久而久之,往復循環,過沖和欠沖的電池都會受到很大程度上的影響,并且會加速電池的老化,甚至有沖爆電池的可能。試想一下如果在充電時,讓每節電池都平均分配電量,使其達到一個最佳的狀態,這樣會大大延長蓄電池的使用壽命,則均衡維護的作用就尤為突出。

2.7 內阻測試

一種新的測試手段,即通過測量電池的內阻來確定電池的狀態,被證明是非常可靠的方法同時也是負載測試的廉價補充或替代手段。由于電池的內阻與它本身容量有著密切聯系,因此可以在放電期間利用這個參數來預測電池的性能,電池的內阻與容量有著緊密的聯系,不過兩者之間并非一般的線性關系。目前雖然可以測量出電池的內阻,但是這個參數并不能直接用來指示電池的容量,它只能是在電池性能已嚴重退化,并將影響整個系統正常使用時,做為一個警告指示。通過對大量的各種類型電池的測試表明:如果電池的內阻增至高于其基準值,即電池在最佳狀態下的內阻值的25% 時,這個電池將無法進行容量的測試。

2.8 放電試驗

對于交流供電正常的交換局內的UPS電源所配置的蓄電池,應周期性地進行核對性的放電試驗。對于開關電源所配置的2V電池,建議每年做一次,放出額定容量的30%~40%;對于UPS所配置的12V電池,建議每季度或半年做一次,放出額定容量的30%~40%;記錄電池單體電壓和電池組總電壓,及時更換故障電池。

2.9 容量測試

對于2V電池,每三年應進行一次容量測試放電,放出額定容量的80%;對于12V電池應每年進行一次容量測試放電,放出額定容量的80%。詳細記錄放電過程中各單體電壓和電池組總電壓,進行分析,及時更換容量較差的單體電池。

2.10 放電前的準備工作

放電前,先檢查整組電池是否擰緊,再根據放電倍率來確定放電記錄的時間間隔。在對一組電池放電前,應先保證另一組電池充好電。放電過程中要密切注意比較落后的電池,以防止某個單體電池的過放電。并將此次記錄與前次記錄進行比較,對整組電池的運行狀態做到心中有數。

3 集中和遠程監控

蓄電池在線診斷維護系統是為實現機房蓄電池安全使用為目的,及時排除隱患,避免不必要的損失。另一方面為滿足用戶對電源狀態的集中和遠程監測的需求,即在值班員的聯網電腦上可以看到納入監測范圍的源設備的實時運行狀況(含告警),便于即時掌握設備的整體狀況。

蓄電池在線診斷技術就是通過在線監測蓄電池運行中的各項關鍵參數,并對監測數據進行自動分析和診斷,診斷結果以單體電池的實際放電容量或健康狀態表示。其中電池內阻是較為關鍵的一項性能參數值,其能夠有效反映蓄電池內部健康狀態,因此此次蓄電池監測需把實時數據監測、均衡維護、內阻監測功能列為重點。提供安全、準確、便捷的蓄電池在線實時監測功能,保障電源系統的穩定運行。基于RS232、TCP/IP網絡與監控中心管理軟件通信,靈活組網搭建大范圍、分布式的集中監控管理系統。如圖1為內網構建圖,圖2為外網構建圖。

4 結束語

為了營造一個安全、可靠的機房環境,推進以風險預警為基礎、過程管理為手段、事故分析為提升的全過程安全風險管理。隨著數據中心機房各類設備日益增多,機房內的交換設備以及供電設備(如交流配電屏、直流配電屏、蓄電池組以及用于提供備用電的油機等)則是保障各類業務安全運行的關鍵和基礎,其重要性不言而喻。數據中心機房電源起到極其重要的作用,蓄電池則是保障設備運行的最后一道屏障,應給予足夠的重視,需要一套高性能的蓄電池在線檢測維護系統,預防運行蓄電池組中部分過充損壞和長期虧電失效的落后電池,延長蓄電池使用壽命,提高電力系統的安全性;定期對性能差異蓄電池進行補償性維護,從而達到活化電池目的;實時監測蓄電池的運行狀態。

參考文獻

[1] 秦鳴峰.蓄電池的使用與維護[M].北京:化學工業出版社,2009.7.

第4篇

關鍵詞:銀行數據中心;運維方案;經濟性

中圖分類號:TP308

許多銀行將安全性、可用性、易維護、可擴展性作為數據中心建設重點,不注重其經濟性。數據中心的建設是一筆龐大的開支,銀行做任何投資時都要考慮到其回報率,在投資回報率的壓力下,數據中心的規模一般不會很大。而金融業的快速發展又使得銀行的業務迅速增加,當業務量暴增時,數據中心就必須擴建才能滿足工作需要。實際上,不斷擴建的過程中提高了數據中心的建設成本,而且擴建的效果不太好,擴建又會造成資源的浪費,同時還使數據中心的運維風險增加,不利于銀行的健康發展。這種數據中心建設策略不利于銀行提高工作效率和降低成本,無法為客戶提供全方位的多元化服務,銀行的服務水平降低,進而不利于銀行的發展。

在銀行數據中心建設中,必須注重其經濟性,注重數據中心的擴展性,確保在數據中心上的每一筆投入都能獲得最高的回報率,減少資源浪費,并且使數據中心最大限度提高銀行工作效率。那么,其經濟性又可以從哪幾個方面體現呢?

1 數據中心的選址

數據中心選址是數據中心規劃中最為基礎的內容,科學合理的選址可以大大節約資源,降低投資成本。商業銀行的數據中心一般是采用“兩地三中心”的規劃方案,也就是生產中心、同城災備中心、異地災備中心在兩個城市中。

1.1 生產中心和同城災備中心選址

生產中心與同城災備中心處于同一個城市里時,二者之間的距離必須在20km以上。為了保證同城災備中心于生產中心之間的順暢交流,二者之間應建立起交通通道,使得物質、人員可以快速實現轉移。而同城災備中心要對各種災難性事件進行高效率的處理,因此,在選址時就要考慮到周圍的供電狀況、市政基礎設施服務狀況、通信環境、自然環境等。當然,選址的地價也是需要重點考慮的一個問題。

生產中心與同城災備中心的選址應注意以下幾點:

第一,二者之間的距離大于20km。

第二,周圍需要有良好的供電環境,保證其基本電力需求。

第三,兩者均需要接入城市骨干通信環網,但是需要是在不同的通信節點上接入通信網。

第四,生產中心與同城災備中心之間有良好的交通環境,能夠迅速完成人、物的轉移。

第五,地價較低廉,有良好的排水條件。尤其是在多暴雨的城市中,選址時盡量選擇地勢較高的地段,確保排水的順暢。

1.2 異地災備中心選址

異地災備中心的主要功能就是:發生重大災難性事件時,確保業務應用系統的正常運行,盡量降低同城災備中心在進行災難恢復時的風險。一般而言,異地災備中心與生產中心位于不同城市,選址時主要考慮的因素是:社會經濟人文環境、自然地理環境、人才環境、基礎設施環境、成本因素、周邊環境因素和政策環境因素。其中,自然地理環境是需要著重考慮的要素,而且這幾大要素又往往是相互制約的。當選擇在一線城市時,其成本會很高,但是人才環境、基礎設施環境會很好;如果選擇在三四線城市中,其成本大大降低,但是人才瓶頸就很難解決了。

之所以要特別注重自然地理環境是因為,如果異地災備中心的自然環境較惡劣,容易發生自然災害的話,那么它本身就存在了很大的災害風險,當發生災難性事件時,很難確保業務應用系統的正常運行。

從經濟學的角度來說,異地災備中心選址需要注意以下幾點:

第一,與生產中心位于不同城市,距離在300km以上。

第二,城市可以提供滿足需要的人力資源,政策環境優。

第三,自然地理環境好,自然災害少。

第四,城市的通信網發達。

第五,有豐富的電能資源,電價低廉。

2 數據中心基礎設施規劃

從現實環境來看,銀行數據中心改建、擴建已不鮮見,那么為了節約資源,為客戶提供更高滿意度的業務服務,銀行在建設數據中心時應盡量擴大規模,從銀行未來很長一段時間的發展角度思考問題。數據中心的規模除了要滿足當前的業務需要,還要滿足未來的業務需求,至少留出三分之一的空間給未來的新興業務。

據悉,功耗帶來的成本壓力已成為銀行數據中心的一大挑戰。因此,建設數據中心時要考慮到電價,還要考慮到服務器的耗能,盡量選擇節能的服務器。

在數據中心機房的功率密度越來越高的情況下,要注重制冷系統的規劃,空調位置靠近機柜、按照冷熱通道分離的方式進行制冷系統的規劃,尤其要重視熱點區域的制冷系統的規劃。

在通信布線規劃上,在垂直和水平方向上均擁有兩路以上相互分離的入戶光纜通道,經過不同的方向進入數據中心通信機房。由于數據中心對防火性能要求較高,因此布線時盡量減少銅攬的使用,優先選擇光纖的方式進行線路的布設。為了有效提高防火性能,可以在線路布設完成后,在線纜上涂刷一層阻燃劑。

3 綠色數據中心理念

隨著不可再生能源的迅速消耗和自然環境的破壞,可持續發展理念提出,人們也越來越重視自然環境的保護。銀行數據中心建設中,為了降低成本,遵循綠色數據中心理念勢在必行。在數據中心建設中,盡量使用可再生環保的資源,提高資源利用率。

綠色數據中心最顯著的特點就是能耗的大大降低,在數據中心的使用中,機房的計算機設備、電氣設備、照明系統等都屬于節能型設備,能夠最大限度的利用資源,并減少污染物的排放。

在節能問題上,首先在設備的選型上注意其能耗,盡量選擇能耗低的設備。比如說,運用UPS來減少電源系統的損耗;用刀片服務器替代傳統的機架式設備;采用節能型照明設備。再比如說,在熱點區域使用太陽能空調,達到節能的效果。其次,盡量減少設備,也就是說,提高每個設備的利用率,盡量做到一機多用,這樣不僅可以達到節能的目的,還可以節約空間,另外也能適當減少制冷設備的利用。再次,盡量利用自然資源。在制冷系統上,并不是所有的制冷都需要運用制冷設備來完成,可以根據自然環境的變化,充分利用室外的冷空氣,利用新風節能系統將室外的冷空氣引入室內,并將室內的熱空氣排出,或者說將室內的熱空氣排放到人行通道中,這樣又可以減少人行通道中的制暖設備,這樣就能大大節約能源,還能減少對環境的污染。

除了前面提到的幾點節能措施外,為了實現綠色數據中心,應對數據中心進行全面規劃分析,任何一小點都不能放過,盡量減少能耗,充分利用自然資源,節約資源。

4 結束語

銀行數據中心的建設是一項非常復雜的工作,技術含量高,涉及學科多。在當今銀行業務迅速增加、銀行規模不斷擴大的形勢下,銀行要注重數據中心建設和運維的經濟分析,從數據中心的選址到機房、通信系統等基礎設施的建設,再到各個設備的選型和布置,對每個部分進行經濟分析,力求建設出最優的數據中心,提高銀行工作效率,提高服務水平,促進銀行的可持續發展。

參考文獻:

[1]胡濱.數據中心建設和運維方案的經濟性分析[J].中國金融電腦,2010(01).

[2]李小慶.基于銀行發展戰略的數據中心管理[J].中國金融電腦,2010(02).

[3]趙磊.銀行數據中心核心網絡的構建研究[J].科技傳播,2013(4).

第5篇

近年來,隨著國家寬帶提速,互聯網+戰略逐漸向各行各業加速滲透,帶來互聯網流量快速增長,拉動對數據中心等互聯網基礎設施需求的增長,加速推動我國IDC行業發展重返快車道。2014年我國市場規模達到372.2億元,增長率超過40%;2015年,隨著地產、金融等行業進一步滲透進入IDC市場,受供需兩端快速增長的影響,2015年繼續保持高速增長態勢,市場總規模達到518.6億元,增長率39.3%。

中國IDC圈預測,未來三年整體IDC市場增速將保持在35%以上,到2018年,中國IDC市場規模將接近1400億元,增速達到39.6%。同時,據2015年工信部的報告稱:我國擬在2015年建設255個數據中心,但是主要實際使用率主要以小型數據中心為主(總設計服務器規模約728萬臺,但是實際投產服務器約為57萬臺,僅占設計規模的7.8%,其中超大型數據中心投產率1.8%,大型數據中心21%,中小型40%)。順應運營商面向以DC為核心的經營模式的轉型,瑞斯康達創造性推出數據中心解決方案,該方案旨在為客戶構筑高效、高帶寬、易演進的數據中心網絡,助力運營商更好地擴展業務。

云數據中心SDN交換機解決方案

瑞斯康達可提供兩套解決方案,基于SDN的Overlay解決方案和基于堆疊的傳統解決方案。

SDN Overlay解決方案包括:SDN交換機和控制器兩部分,Controller負責Overlay業務的全局動態部署。方案支持網絡Overlay、主機Overlay和混合Overlay三種組網模型。

網絡Overlay場景解決方案:主要面向對虛擬化平臺無特別傾向的客戶群,比如運營商,所有Overlay設備都是物理交換機,服務器無需支持Overlay,該網絡Overlay組網的服務器可以是多樣的,可以支持虛擬化服務器和物理服務器接入。

主機Overlay場景解決方案:主要面向對虛擬化平臺有強烈傾向和原有物理服務器已經選擇部署了虛擬化服務器,該方案不能接入費虛擬化服務器,因此該方案主要定位是配合VMware、KVM等場景Overlay方案。

混合Overlay場景解決方案:物理交換機和服務器(vS)都可以作為Overlay邊緣設備,組網更加靈活,可接入各種形態服務器,既可以完美發揮硬件網關的高性能,又可以完美匹配虛擬網關的業務靈活性。

針對傳統數據中心瑞斯康達亦可提供基于橫向堆疊的網絡虛擬化解決方案,該方案具備:

易擴展:多臺物理設備虛擬成邏輯上一臺;

高性能:性能提高一倍,50ms收斂能力;

易管理:統一的管理界面,簡化管理;

具有穩定、安全、應用更加廣泛的特點。

方案具有高性能、ISF堆疊和向未來演進的SDN技術特色:

高性能:提供GE/10G/40G接入能力,匯聚提供40G,未來可平滑升級至100G接口速率,提供高性能無阻塞網絡;

ISF堆疊:面向數據中心市場全系列交換機支持ISF橫向堆疊方案,提供10G/40G接口堆疊能力;

SDN:支持OpenFlow、VxLAN。

云數據中心互聯解決方案

云數據中心之間需要進行數據傳輸或備份,對數據中心之間傳輸網絡的安全可靠性、實時傳輸性能及大容量傳輸能力有很高的要求。瑞斯康達基于OTN/DWDM系統的DC互聯傳輸方案,可點對點組網,或組環網,在主備數據中心之間搭建主備傳輸鏈路,實現海量數據的可靠傳輸。根據需求靈活中繼,實現異地災備數據的長距離傳輸。目前,已在中國人民銀行、民生銀行、中信銀行、鵬博士集團、中信信誠、蘇州財政局、石家莊財政局等得到了成功應用。

方案優勢:

多速率支持:支持1G/2G/4G/8G/10G等FC速率,支持GE/10GE以太速率等;

大容量傳輸:支持40λ×10G傳輸容量,點對點實現至少400G;

雙路由保護:支持OLP線路保護,實現數據的雙路由可靠傳輸,滿足DC數據傳輸高可靠性要求;

遠距離傳輸:結合光放大中繼增強長距傳輸能力,滿足異地災備長距離傳輸需求;

低延時傳輸:利用剛性管道透明傳輸,實現數據低延時傳輸,滿足數據傳輸的實時性要求;

第6篇

“中國數據中心的建設呈現出兩個明顯的趨勢:一個是數據中心向大型化和小型化分化,中等規模數據中心不斷減少;另一個趨勢是新建的云數據中心越來越多,其數量是普通數據中心的8倍。從這個意義上說,提升云數據中心的能效對于整體IT行業的節能降耗意義重大。”施耐德電氣全球高級副總裁、APC大中華區總裁黃陳宏博士在日前舉行的第三屆“2014施耐德電氣數據中心創新峰會”表示。

提升云數據中心的能效正是此次會議重點關注的話題之一,這也是當下數據中心市場的討論熱點和廠商角力的焦點。黃陳宏博士把高能效云數據中心的建設分為三個階段,即云就緒、云能效和云持續。所謂云就緒是確保數據中心及時靈活交付云服務;云能效是指通過IT和能源技術的協同提升數據中心的能源利用效率;云持續是指數據中心價值的持續優化。“不同階段工作重點有所不同,但能效的管理和優化則是貫穿始終的。”黃博士說。

施耐德電氣信息技術(中國)有限公司副總裁金永哲對此進行了進一步的解釋。他告訴記者,提升云數據中心能效需要一個全生命周期的解決方案,也就是要從數據中心的規劃、設計、建設、運營等各個環節進行管理。“實際上,是否系統地提升云能效對數據中心的耗電量會帶來很大的影響。以一個10兆瓦IT負載的數據中心為例,一年的電費開支可能會差上億元。”金永哲說。

據悉,在此領域施耐德電氣此前先后推出過眾多創新性的產品和解決方案,在市場頗受歡迎的InfraStruxure英飛集成系統、預制模塊化數據中心解決方案、DCIM軟件StruxureWare等都出自施耐德電氣。在此次峰會上,施耐德電氣再次豐富了其產品和解決方案,推出了一系列新品,其中包括:采用創新的施耐德Econversion超級能效模式的Galaxy VM不間斷電源,效率高達99%,具有高可用性、跨平臺、易安裝、易配置等特性;新一代緊靠熱源的創新制冷產品InRow 2代行級制冷,可隨負載的變化而調整制冷量和風量,能最大限度地降低制冷能耗;預制模塊化數據中心解決方案,能顯著簡化數據中心的規劃、設計、建設數據中心的過程,使得數據中心的部署更快速、更可預測。

施耐德電氣還在中國市場推出了基礎設施運營服務。即由施耐德電氣來承擔客戶數據中心基礎設施運維服務,以幫助客戶最大化基礎設施的可用性和最小化停機的風險,使企業管理者專注于其核心業務。

第7篇

太極股份于2010年成功上市,并將數據中心業務確立為新的發展階段的核心單元,太極數據中心事業部遵循數據中心建設與業務發展及IT戰略相融合的系統方法論,在深刻理解用戶業務和發展模式的基礎上,創造了以業務應用系統及基礎設施工程相融合的新型服務模式。

多年來,太極股份作為國有控股的上市企業以及國內優秀的IT服務供應商,依托全面整合的資源,憑借不斷創新的理念,依靠雄厚的綜合實力和精湛的專家隊伍,一直引領著數據中心建設的發展方向,并且獲得了廣大客戶的高度認可。

綜合實力

太極股份數據中心事業部具有以下業務能力:

第一,咨詢與設計能力。憑借豐富的行業知識和工程實踐經驗,以及一流的咨詢團隊,太極數據中心事業部為數據中心客戶提供基于行業的IT規劃及高端業務咨詢設計服務,包括數據中心場地建設及IT基礎平臺的搭建等。

第二,基于方法論的項目實施能力。

經過長期工程實踐的積累,太極數據中心事業部逐步建立了成熟的項目實施和管理方法論體系,覆蓋數據中心的咨詢、設計、實施、運維、測評、節能環保等不同類型項目。基于方法論體系,太極股份數據中心事業部形成了業內領先的工程實施能力,尤其是大型的復雜工程項目實施能力。

第三,創新能力。堅持自主創新、創新與應用相結合,太極數據中心事業部致力于提升自身在行業內的競爭力。目前,太極數據中心事業部擁有突出的關鍵技術和標準研究能力,擁有一流的解決方案和產品創新能力。

為數據中心客戶提供以云架構為基礎的云服務,創新數據中心技術和產品,推動解決方案和服務產業化。

業務范圍

太極股份數據中心事業部的業務包括咨詢設計、安裝調試、系統集成、項目管理、運行維護和運營外包等一體化端到端服務組成。

太極數據中心充分考慮客戶的業務、技術和運行現狀,為客戶提供數據中心建設的整體框架模型,根據客戶要求在各個方面進行深入調研及規劃,協助客戶分析、整理出IT架構對基礎設施建設的功能布局、平面布局的要求,并對后續設計、實施和運維提出系統性的指導建議。

第8篇

經過前幾年UPS廠商之間的并購,UPS產品供應商大多已成功轉型為數據中心整體解決方案供應商。包括施耐德、伊頓、艾默生、威圖等在內的國外廠商都已經將業務重點轉向為企業提供端到端的數據中心解決方案和服務。比如,施耐德在不斷完善英飛集成系統的基礎上,又于2011年推出了數據中心管理軟件。再比如,威圖RimatriX5整體機房解決方案包括UPS、制冷、系統管理軟件以及機房防火安全墻體等。

臺達、科華等國內廠商也通過不斷完善自身的產品線,逐漸具有了提供整合的數據中心解決方案的能力。臺達從UPS開始,不斷加入新的產品線,包括機柜、機房精密空調等產品,從而構成了較完整的數據中心解決方案。現在的用戶傾向于站在整個數據中心的高度去審視所要采購的產品或方案的成熟度和可用性。因此,那些有能力提供整體解決方案的數據中心基礎設施供應商更受到用戶的青睞。從目前情況看,數據中心基礎設施中的硬件的整合已經達到了較高水平。可以預見,未來數據中心的監控與管理將成為數據中心廠商競爭的焦點。

未來的數據中心一定是高效、節能的數據中心。因此,各廠商在提高數據中心的整體效率,實現數據中心的綠色化方面下了很多功夫。從各廠商提供的數據中心整體解決方案來看,空調這個部件最受重視。比如,施耐德電氣的制冷整體解決方案實現了硬件、軟件和運行管理系統的集成。臺達推出了RoomCool機房精密空調和Rowcool機柜式精密空調,從而進一步完善了其InfraSuite數據中心解決方案。威圖可以為客戶提供一站式的高效液冷系統解決方案。

2011年,集裝箱數據中心解決方案也嶄露頭角。包括惠普、IBM、華為賽門鐵克、中興通訊、天地云箱、Power Active等在內的國內外廠商都能提供集裝箱數據中心解決方案或其中的重要部件。

威圖RimatriX5整體機房解決方案

威圖致力于數據中心整體解決方案的創新與研發,并為未來的數據中心和云計算服務物理基礎設施提供一站式的產品和服務。

威圖RimatriX5整體機房解決方案主要包括以下部件。第一,威圖高效率液冷系統(LCP+IT chiller)。威圖高效液冷系統可為高密度應用提供高效、可靠、節能的一站式解決方案,優化制冷效率,降低PUE,利用自然冷卻大幅節能。LCP為服務器機柜提供高效率的換熱和均勻送風,IT chiller則為LCP提供不間斷的冷量來源。第二,可擴容的模塊化不間斷電源(UPS)組件。威圖的模塊化UPS可以非常方便地實現單機冗余(N+1)或多機冗余2(N+1)配置,在低負載情況下可實現95%以上的效率,有效降低能耗。從小型的企業私有云(一個小型UPS柜內集成主機、電池、監控和電力分配單元)到大型的IDC服務云(多UPS大功率并機輸出),威圖模塊化UPC PMC都可以從容應對。第三,可擴展的安全機房維護結構以及防火安全墻體。通過在數據中心安裝防火安全墻體來代替傳統的機房墻體,威圖可以幫助客戶快速部署一個防護等級很高的機房空間。安全墻體可以快速組裝、擴容和遷移。第四,威圖數據中心管理策略平臺以及動力環境監控系統(Rizone+CMC)。威圖憑借對數據中心的深刻理解,能為用戶提供可靠且開放的綜合管理平臺與動力環境監控組件。

施耐德電氣制冷整體解決方案

施耐德電氣在制冷領域擁有超過20年的專業經驗。施耐德電氣提出了端到端制冷解決方案的理念,即通過提供在空間層面從建筑級、房間級到行級和機柜級的全方位制冷解決方案,以及在應用層面覆蓋IT應用和非IT應用的廣泛的制冷解決方案,為客戶創造更多價值。

施耐德電氣制冷整體解決方案由硬件、軟件和運行管理系統構成。硬件包括模塊化冷凍水機組、精密空調、氣流遏制系統、高架地板和智能氣流管理系統。在軟件方面,除了提供常規的運行軟件外,施耐德電氣基于客戶對于效率和安全的更高要求,特別提供了自動地板壓力控制和熱備份運行軟件。為保證制冷系統各部件之間良好的匹配,施耐德電氣還開發了Master Control運行管理系統。施耐德電氣實現了制冷系統從室外冷凍水到市內精密空調的全部硬件的整合,以及軟件與硬件的整合,可以滿足用戶從低密度制冷到高密度制冷的全面需求,此外還實現了對制冷和氣流管理的整合。

隨著云計算、虛擬化技術的發展,IT設備的運維變得越來越復雜。這就需要制冷系統的運行能夠與IT設備的運行實現動態匹配。施耐德電氣制冷整體解決方案可以動態地捕捉負載變化,自動進行制冷補償,并可實現按需制冷和精確制冷,既不會出現由于制冷不足造成熱點,也不會出現制冷的浪費。施耐德電氣制冷整體解決方案已通過TUV測試程序認證,并被全球多家數據中心所采用。

施耐德電氣制冷整體解決方案整合了制冷系統中的各種硬件,特別是冷凍水機組,實現了對客戶的一站式服務。施耐德電氣的冷凍水機組在連續制冷、全工況工作等方面做了特別設計,并且將自然冷卻和模塊化設計引入到冷凍水機組中,可以幫助客戶節約運行成本,并且滿足數據中心模塊化建設的需求。

臺達InfraSuite精密空調系統

臺達InfraSuite數據中心解決方案采用集成一體化和系統模塊化的設計思想,將供電系統、IT設備機械支撐系統、空氣調節系統和管理系統全部整合在一起,具有更好的可擴展性、可管理性和可維護性,能夠降低數據中心建設的總體擁有成本,同時提高數據中心基礎架構的可用性。

臺達InfraSuite數據中心解決方案采用的精密空調主要包括兩個系列,即RoomCool機房精密空調和Rowcool機柜式精密空調。

第9篇

“在這種情況下,數據中心的安全就成為其能否正常提供高效、可用服務的關鍵。”在接受本報記者專訪時,山石網科新技術副總裁王鐘認為,傳統的數據中心安全解決防護思路難以應對云時代數據中心的發展,“我們需要擺脫以設備為核心的安全策略,從基礎架構層面做起,提供整體的解決方案”。

云時代數據中心多重挑戰

在云時代,數據中心主要面臨兩個維度上的安全,一是傳統數據中心邊界,二是數據中心內部和跨越不同地域的多個數據中心之間的安全。

“云數據中心業務和技術的動態變化和復雜性,給云數據中心的網絡安全帶來了新挑戰。”王鐘在接受本報記者專訪時表示,挑戰源于“服務器和網絡的虛擬化、軟件定義網絡(SDN)和BYOD(Bring Your Own Device,員工攜帶自己的設備辦公)”。

Gartner認為,2012年虛擬化技術已達到了50%的普及率。服務器虛擬化的好處顯而易見,但是別忘記了,服務器虛擬化并非完美無瑕。惠普信息安全解決方案技術服務事業部經理陳顥明表示:“以前數據中心的一臺物理機只支持一個操作系統,但現在一個刀片可能支持25個操作系統,這就意味著我們原本設定好的安全域的規則被打亂,不同安全層級的信息可能在同一臺虛擬機上,造成的后果是權限級別低的用戶有可能訪問到更高權限級別才能訪問的數據,并且帶來安全風險。”

從虛擬化技術發展的角度來看,虛擬化數據中心多租戶環境的細粒度的管理,以及對內容、應用、身份認證的的安全應對措施,是數據中心安全的關鍵性問題。

“大多數的識別和安全控制措施基于固定的位置、靜態網絡或者固定IP,難以應付虛擬機遷移帶來的安全問題。”王鐘認為,“虛擬化環境的動態特性某種程度上意味著新的安全威脅和漏洞。”

同樣地,網絡虛擬化將網絡服務和物理網絡設備分離,網絡的部署方式也發生了改變——從設備的手工單獨配置方式變為可編程的自動部署,同時網絡也可以按需而動。而傳統的安全解決方案基于固定物理網絡設備的安全技術,面臨著動態變化的網絡虛擬化的挑戰。

與網絡虛擬化相似的是,SDN將網絡控制與網絡的物理拓撲分開。“當網絡變成可編程實現的時候,網絡安全該如何實現?當網絡的控制和管理被虛擬化、集中化之后,安全的管理應該如何解決?”王鐘認為,SDN帶來的安全問題同樣不可小覷。

最后,隨著IT消費化的趨勢,BYOD逐漸被越來越多企業接受,虛擬化的普及推動了這一趨勢的發展。然而,企業在享受到降低成本帶來的便利時,也不得不提升應對安全風險的成本。這是因為員工攜帶的個人設備,往往沒有部署相應的安全策略,員工在哪里使用這些設備、通過哪種網絡接入企業的業務平臺,企業的IT人員往往難以準確了解。同時,員工在使用個人設備辦公的同時,往往還進行上網和娛樂等行為。這些都給黑客潛入企業網絡提供了可乘之機。

由此可見,相比于傳統的數據中心安全防護,云計算時代,尤其是虛擬化技術發展帶來的變革之后,數據中心的安全防護對安全設備提出了更高的要求,包括高性能并按需擴展、高可靠保障業務連續性、虛擬防火墻實現虛擬機間的隔離和可視化提供業務可管理等。在王鐘看來,“安全即服務和資源、開放可定義、冗余高可靠、分布可擴展和綠色節能將是未來數據中心安全解決方案的關鍵”。

基礎架構層面的整體解決方案

在近日舉辦的2012RSA中國信息安全大會上,作為云計算技術落地實施的最重要環節,數據中心的安全備受關注。眾所周知,數據中心的安全設備必不可少,而且隨著這些設備的日益增多,以及業務需求的變化,單一網絡安全產品已經無法應對用戶所面臨的挑戰,安全廠商應該從數據中心基礎架構入手提供全面的解決方案。

“以往,安全廠商跟用戶強調的往往是其產品的性能有多強,速度有多快。但事實上,某一款設備的快慢并不能從根本上解決數據中心的整體問題。”王鐘向記者介紹,“站在管理者的角度上,我們首先要思考的是數據中心是否可管理。這個管理需要集中的、智能的、開放的,能夠跟數據中心的管理融合起來。”在他看來,只有這幾個方面都具備的安全管理架構,才是數據中心所需要的。

要滿足集中、智能和開放等條件并不容易,山石網科給出的解決方案是提供基礎架構層面的完整的網絡安全解決方案,包括數據中心防火墻+彈性安全架構+安全監控和管理等三部分內容。在這個架構之上,山石網科推出了云數據中心網絡安全解決方案——云之盾。

“云之盾整合了山石網科數據中心防火墻、彈性安全架構與安全監控與管理方案,具有冗余高可靠、分布可擴展、綠色節能等特點,可以幫助用戶輕松應對未來云數據中心面臨的各種安全挑戰。”王鐘告訴記者,云之盾是著眼于未來云數據中心的安全建設需求,并考慮未來的發展,以方便及時監控和管理為出發點研發的,能夠幫助用戶解決虛擬化帶來的邊界模糊、被保護對象不清晰,以及其他各種安全問題。

相關文章
相關期刊
主站蜘蛛池模板: 四虎www| 男人天堂1024 | 免费观看国产一区二区三区 | 91精品国产色综合久久不卡蜜 | 老女人网站 | 久久午夜精品视频 | 久久伊人免费视频 | 国产精品亚洲天堂 | 99热这里精品 | 99re热视频精品首页 | 日韩免费视频在线观看 | 国产成人精品午夜 | 成人久久免费视频 | 五月天婷婷在线播放 | 九九久久精品国产免费看小说 | 瑟瑟网站在线观看 | 97视频在线观看免费播放 | 国产精品久久久久毛片 | 日韩精品欧美视频 | 国产一区美女视频 | 我和岳交换夫妇中文字幕在线 | 第一福利在线观看永久视频 | 久久亚洲精品tv | 免费在线色 | 庭院里的女人高清完整版 | 国产乱视频网站 | 国产成人亚洲午夜电影 | 四虎精品在线 | 国产精品美女挤奶视频 | 青春韩国无删减版电影在线观看 | 国产成人综合久久精品亚洲 | 男人天堂网在线播放 | 亚洲精品99久久久久中文字幕 | 四虎成人影院网址 | 开心丁香婷婷深爱五月 | 天天干国产 | 色综合蜜桃视频在线观看 | 国产精品免费观看视频播放 | 久久99久久精品97久久综合 | 免费看一级性生活片 | 国产成人精品一区二区app |