本文系統(tǒng)地分析和總結(jié)云計(jì)算的研究現(xiàn)狀,劃分云計(jì)算體系架構(gòu)為核心服務(wù)、服務(wù)管理、用戶訪問(wèn)接口等3個(gè)層次。圍繞低成本、高可靠、高可用、規(guī)??缮炜s等研究目標(biāo),深入全面地介紹了云計(jì)算的關(guān)鍵技術(shù)及最新研究進(jìn)展。在云計(jì)算基礎(chǔ)設(shè)施方面,介紹了云計(jì)算數(shù)據(jù)中心設(shè)計(jì)與管理及資源虛擬化技術(shù):在大規(guī)模數(shù)據(jù)處理方面,分析了海量數(shù)據(jù)處理平臺(tái)及其資源管理與調(diào)度技術(shù);在云計(jì)算服務(wù)保障方面,討論了服務(wù)質(zhì)量保證和安全與隱私保護(hù)技術(shù)。針對(duì)新型的云計(jì)算應(yīng)用和云計(jì)算存在的局限性,又探討并展望了今后的研究方向。最后,介紹了東南大學(xué)云計(jì)算平臺(tái)以及云計(jì)算研究與應(yīng)用方面的相關(guān)成果。
1引言 近年來(lái),社交網(wǎng)絡(luò)、電子商務(wù)、數(shù)字城市、在線視頻等新一代大規(guī)?;ヂ?lián)網(wǎng)應(yīng)用發(fā)展迅猛。這些新興的應(yīng)用具有數(shù)據(jù)存儲(chǔ)量大、業(yè)務(wù)增長(zhǎng)速度快等特點(diǎn)。據(jù)統(tǒng)計(jì)至2010年,社交網(wǎng)站Facebook己存儲(chǔ)了15TB的數(shù)據(jù),并且每天新增60TB數(shù)據(jù);電子商務(wù)網(wǎng)站淘寶的B2C業(yè)務(wù)在2010年增長(zhǎng)了4倍,其數(shù)據(jù)中心存儲(chǔ)了14PB數(shù)據(jù),并且每天需要處理SOOTB數(shù)據(jù)。與此同時(shí),傳統(tǒng)企業(yè)的軟硬件維護(hù)成本高昂;在企業(yè)的IT投入中,僅有20%的投入用于軟硬件更新與商業(yè)價(jià)值的提升,而80%則投入用于系統(tǒng)維護(hù)。根據(jù)2006年IDC對(duì)200家企業(yè)的統(tǒng)計(jì),部分企業(yè)的信息技術(shù)人力成本達(dá)到1320美元/每人/每臺(tái)服務(wù)器,而部署一個(gè)新的應(yīng)用系統(tǒng)需要花費(fèi)5.4周。 為了解決上述問(wèn)題,2006年Google、Amazon等公司提出了“云計(jì)算”的構(gòu)想。根據(jù)美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的定義,云計(jì)算是一種利用互聯(lián)網(wǎng)實(shí)現(xiàn)隨時(shí)隨地、按需、便捷地訪問(wèn)共享資源池(如計(jì)算設(shè)施、存儲(chǔ)設(shè)備、應(yīng)用程序等)的計(jì)算模式。計(jì)算機(jī)資源服務(wù)化是云計(jì)算重要的表現(xiàn)形式,它為用戶屏蔽了數(shù)據(jù)中心管理、大規(guī)模數(shù)據(jù)處理、應(yīng)用程序部署等問(wèn)題。通過(guò)云計(jì)算,用戶可以根據(jù)其業(yè)務(wù)負(fù)載快速申請(qǐng)或釋放資源,并以按需支付的方式對(duì)所使用的資源付費(fèi),在提高服務(wù)質(zhì)量的同時(shí)降低運(yùn)維成本。 作為信息產(chǎn)業(yè)的一大創(chuàng)新,云計(jì)算模式一經(jīng)提出便得到工業(yè)界、學(xué)術(shù)界的廣泛關(guān)注。其中Amazon等公司的云計(jì)算平臺(tái)提供可快速部署的虛擬服務(wù)器,實(shí)現(xiàn)了基礎(chǔ)設(shè)施的按需分配。MapReduce等新型并行編程框架簡(jiǎn)化了海量數(shù)據(jù)處理模型。Google公司的App Engine云計(jì)算開發(fā)平臺(tái)為應(yīng)用服務(wù)提供商開發(fā)和部署云計(jì)算服務(wù)提供接口。 Salesforce公司的客戶關(guān)系管理(CRM, customerrelationship management)服務(wù)等云計(jì)算服務(wù)將桌面應(yīng)用程序遷移到互聯(lián)網(wǎng),實(shí)現(xiàn)應(yīng)用程序的泛在訪問(wèn)。同時(shí),各國(guó)學(xué)者對(duì)云計(jì)算也展開了大量研究工作。早在2007年,斯坦福大學(xué)等多所美國(guó)高校便開始和Google, IBM合作,研究云計(jì)算關(guān)鍵技術(shù)。近年來(lái),隨著云計(jì)算研究的深入,眾多國(guó)際會(huì)議(如SIGCOMM、OSDI, SIGMOD, CCS等)上陸續(xù)發(fā)表了云計(jì)算相關(guān)研究成果.此外,以Eucalyptus為代表的開源云計(jì)算平臺(tái)的出現(xiàn),加速了云計(jì)算服務(wù)的研究和普及。 不僅如此,各國(guó)政府紛紛將云計(jì)算列為國(guó)家戰(zhàn)略,投入了相當(dāng)大的財(cái)力和物力用于云計(jì)算的部署。其中,美國(guó)政府利用云計(jì)算技術(shù)建立聯(lián)邦政府網(wǎng)站,以降低政府信息化運(yùn)行成本。英國(guó)政府建立國(guó)家級(jí)云計(jì)算平臺(tái)(G-Cloud),超過(guò)2/3的英國(guó)企業(yè)開始使用云計(jì)算服務(wù)。在我國(guó),北京、上海、深圳、杭州、無(wú)錫等城市開展了云計(jì)算服務(wù)創(chuàng)新發(fā)展試點(diǎn)示范工作;電信、石油石化、交通運(yùn)輸?shù)刃袠I(yè)也啟動(dòng)了相應(yīng)的云計(jì)算發(fā)展計(jì)劃,以促進(jìn)產(chǎn)業(yè)信息化。 然而,云計(jì)算本質(zhì)上并非一個(gè)全新的概念。早在1961年,計(jì)算機(jī)先驅(qū)John McCarthy就預(yù)言:“未來(lái)的計(jì)算資源能像公共設(shè)施(如水、電)一樣被使用?!睘榱藢?shí)現(xiàn)這個(gè)目標(biāo),在之后的幾十年里,學(xué)術(shù)界和工業(yè)界陸續(xù)提出了集群計(jì)算、效用計(jì)算、網(wǎng)格計(jì)算、服務(wù)計(jì)算等技術(shù),而云計(jì)算正是從這些技術(shù)發(fā)展而來(lái)。 在這些傳統(tǒng)技術(shù)中,集群計(jì)算將大量獨(dú)立的計(jì)算機(jī)通過(guò)高速局域網(wǎng)相連,從而提供高性能計(jì)算能力。效用計(jì)算為用戶提供按需租用計(jì)算機(jī)資源的途徑。網(wǎng)格計(jì)算整合大量異構(gòu)計(jì)算機(jī)的閑置資源(如計(jì)算資源和磁盤存儲(chǔ)等),組成虛擬組織,以解決大規(guī)模計(jì)算問(wèn)題。服務(wù)計(jì)算作為連接信息技術(shù)和商業(yè)服務(wù)的橋梁,研究如何用信息技術(shù)對(duì)商業(yè)服務(wù)建模、操作和管理。 對(duì)云計(jì)算而言,其借鑒了傳統(tǒng)分布式計(jì)算的思想。通常情況下,云計(jì)算采用計(jì)算機(jī)集群構(gòu)成數(shù)據(jù)中心,并以服務(wù)的形式交付給用戶,使得用戶可以像使用水、電一樣按需購(gòu)買云計(jì)算資源。從這個(gè)角度看,云計(jì)算與網(wǎng)格計(jì)算的目標(biāo)非常相似。但是云計(jì)算和網(wǎng)格計(jì)算等傳統(tǒng)的分布式計(jì)算也有著較明顯的區(qū)別:首先云計(jì)算是彈性的,即云計(jì)算能根據(jù)工作負(fù)載大小動(dòng)態(tài)分配資源,而部署于云計(jì)算平臺(tái)上的應(yīng)用需要適應(yīng)資源的變化,并能根據(jù)變化做出響應(yīng);其次,相對(duì)于強(qiáng)調(diào)異構(gòu)資源共享的網(wǎng)格計(jì)算,云計(jì)算更強(qiáng)調(diào)大規(guī)模資源池的分享,通過(guò)分享提高資源復(fù)用率,并利用規(guī)模經(jīng)濟(jì)降低運(yùn)行成本:最后,云計(jì)算需要考慮經(jīng)濟(jì)成本,因此硬件設(shè)備、軟件平臺(tái)的設(shè)計(jì)不再一味追求高性能,而要綜合考慮成本、可用性、可靠性等因素。 基于上述比較并結(jié)合云計(jì)算的應(yīng)用背景,云計(jì)算的特點(diǎn)可歸納如下。 1)彈性服務(wù)。服務(wù)的規(guī)模可快速伸縮,以自動(dòng)適應(yīng)業(yè)務(wù)負(fù)載的動(dòng)態(tài)變化。用戶使用的資源同業(yè)務(wù)的需求相一致,避免了因?yàn)榉?wù)器性能過(guò)載或冗余而導(dǎo)致的服務(wù)質(zhì)量下降或資源浪費(fèi)。 2)資源池化。資源以共享資源池的方式統(tǒng)一管理。利用虛擬化技術(shù),將資源分享給不同用戶,資源的放置、管理與分配策略對(duì)用戶透明。 3)按需服務(wù)。以服務(wù)的形式為用戶提供應(yīng)用程序、數(shù)據(jù)存儲(chǔ)、基礎(chǔ)設(shè)施等資源,并可以根據(jù)用戶需求,自動(dòng)分配資源,而不需要系統(tǒng)管理員干預(yù)。 4)服務(wù)可計(jì)費(fèi)。監(jiān)控用戶的資源使用量,并根據(jù)資源的使用情況對(duì)服務(wù)計(jì)費(fèi)。 5)泛在接入。用戶可以利用各種終端設(shè)備(如PC電腦、筆記本電腦、智能手機(jī)等)隨時(shí)隨地通過(guò)互聯(lián)網(wǎng)訪問(wèn)云計(jì)算服務(wù)。 正是因?yàn)樵朴?jì)算具有上述5個(gè)特性,使得用戶只需連上互聯(lián)網(wǎng)就可以源源不斷地使用計(jì)算機(jī)資源,實(shí)現(xiàn)了“互聯(lián)網(wǎng)即計(jì)算機(jī)”的構(gòu)想。 綜上所述,云計(jì)算是分布式計(jì)算、互聯(lián)網(wǎng)技術(shù)、大規(guī)模資源管理等技術(shù)的融合與發(fā)展(如圖1所示),其研究和應(yīng)用是一個(gè)系統(tǒng)工程,涵蓋了數(shù)據(jù)中心管理、資源虛擬化、海量數(shù)據(jù)處理、計(jì)算機(jī)安全等重要問(wèn)題。本文通過(guò)歸納云計(jì)算特點(diǎn)與體系架構(gòu),總結(jié)和分析云計(jì)算各層服務(wù)的關(guān)鍵技術(shù)及系統(tǒng)實(shí)例,針對(duì)當(dāng)前云計(jì)算存在的問(wèn)題,提出未來(lái)研究的方向。 圖1云計(jì)算與相關(guān)技術(shù)的聯(lián)系
2云計(jì)算體系架構(gòu) 云計(jì)算可以按需提供彈性資源,它的表現(xiàn)形式是一系列服務(wù)的集合。結(jié)合當(dāng)前云計(jì)算的應(yīng)用與研究,其體系架構(gòu)可分為核心服務(wù)、服務(wù)管理、用戶訪問(wèn)接口3層,如圖2所示。核心服務(wù)層將硬件基礎(chǔ)設(shè)施、軟件運(yùn)行環(huán)境、應(yīng)用程序抽象成服務(wù),這些服務(wù)具有可靠性強(qiáng)、可用性高、規(guī)??缮炜s等特點(diǎn),滿足多樣化的應(yīng)用需求。服務(wù)管理層為核心服務(wù)提供支持,進(jìn)一步確保核心服務(wù)的可靠性、可用性與安全性。用戶訪問(wèn)接口層實(shí)現(xiàn)端到云的訪問(wèn)。 圖2云計(jì)算體系架構(gòu) 2.1核心服務(wù)層 云計(jì)算核心服務(wù)通??梢苑譃?個(gè)子層:基礎(chǔ)設(shè)施即服務(wù)層(IaaS, infrastructure as a service )、平臺(tái)即服務(wù)層(PaaS, platform as a service )、軟件即服務(wù)層(SaaS, software as a service)。表1對(duì)3層服務(wù)的特點(diǎn)進(jìn)行了比較。 IaaS提供硬件基礎(chǔ)設(shè)施部署服務(wù),為用戶按需提供實(shí)體或虛擬的計(jì)算、存儲(chǔ)和網(wǎng)絡(luò)等資源。在使用IaaS層服務(wù)的過(guò)程中,用戶需要向IaaS層服務(wù)提供商提供基礎(chǔ)設(shè)施的配置信息,運(yùn)行于基礎(chǔ)設(shè)施的程序代碼以及相關(guān)的用戶數(shù)據(jù)。由于數(shù)據(jù)中心是IaaS層的基礎(chǔ),因此數(shù)據(jù)中心的管理和優(yōu)化問(wèn)題近年來(lái)成為研究熱點(diǎn)。另外,為了優(yōu)化硬件資源的分配,IaaS層引入了虛擬化技術(shù)。借助于Xen、KVM、VMware等虛擬化工具,可以提供可靠性高、可定制性強(qiáng)、規(guī)??蓴U(kuò)展的IaaS層服務(wù)。 PaaS是云計(jì)算應(yīng)用程序運(yùn)行環(huán)境,提供應(yīng)用程序部署與管理服務(wù)。通過(guò)PaaS層的軟件工具和開發(fā)語(yǔ)言,應(yīng)用程序開發(fā)者只需上傳程序代碼和數(shù)據(jù)即可使用服務(wù),而不必關(guān)注底層的網(wǎng)絡(luò)、存儲(chǔ)、操作系統(tǒng)的管理問(wèn)題。由于目前互聯(lián)網(wǎng)應(yīng)用平臺(tái)(如Facebook.Google、淘寶等)的數(shù)據(jù)量日趨龐大,PaaS層應(yīng)當(dāng)充分考慮對(duì)海量數(shù)據(jù)的存儲(chǔ)與處理能力,并利用有效的資源管理與調(diào)度策略提高處理效率。 SaaS是基于云計(jì)算基礎(chǔ)平臺(tái)所開發(fā)的應(yīng)用程序。企業(yè)可以通過(guò)租用SaaS層服務(wù)解決企業(yè)信息化問(wèn)題,如企業(yè)通過(guò)GMail建立屬于該企業(yè)的電子郵件服務(wù)。該服務(wù)托管于Google的數(shù)據(jù)中心,企業(yè)不必考慮服務(wù)器的管理、維護(hù)問(wèn)題。對(duì)于普通用戶來(lái)講,SaaS層服務(wù)將桌面應(yīng)用程序遷移到互聯(lián)網(wǎng),可實(shí)現(xiàn)應(yīng)用程序的泛在訪問(wèn)。 表1 2.2服務(wù)管理層 服務(wù)管理層對(duì)核心服務(wù)層的可用性、可靠性和安全性提供保障。服務(wù)管理包括服務(wù)質(zhì)量(QoS,quality of service)保證和安全管理等。 云計(jì)算需要提供高可靠、高可用、低成本的個(gè)性化服務(wù)。然而云計(jì)算平臺(tái)規(guī)模龐大且結(jié)構(gòu)復(fù)雜,很難完全滿足用戶的QoS需求。為此,云計(jì)算服務(wù)提供商需要和用戶進(jìn)行協(xié)商,并制定服務(wù)水平協(xié)議(SLA,service level agreement ),使得雙方對(duì)服務(wù)質(zhì)量的需求達(dá)成一致。當(dāng)服務(wù)提供商提供的服務(wù)未能達(dá)到SLA的要求時(shí),用戶將得到補(bǔ)償。 此外,數(shù)據(jù)的安全性一直是用戶較為關(guān)心的問(wèn)題。云計(jì)算數(shù)據(jù)中心采用的資源集中式管理方式使得云計(jì)算平臺(tái)存在單點(diǎn)失效問(wèn)題。保存在數(shù)據(jù)中心的關(guān)鍵數(shù)據(jù)會(huì)因?yàn)橥话l(fā)事件(如地震、斷電)、病毒入侵、黑客攻擊而丟失或泄露。根據(jù)云計(jì)算服務(wù)特點(diǎn),研究云計(jì)算環(huán)境下的安全與隱私保護(hù)技術(shù)(如數(shù)據(jù)隔離、隱私保護(hù)、訪問(wèn)控制等)是保證云計(jì)算得以廣泛應(yīng)用的關(guān)鍵。 除了QoS保證、安全管理外,服務(wù)管理層還包括計(jì)費(fèi)管理、資源監(jiān)控等管理內(nèi)容,這些管理措施對(duì)云計(jì)算的穩(wěn)定運(yùn)行同樣起到重要作用。 2.3用戶訪問(wèn)接口層 用戶訪問(wèn)接口實(shí)現(xiàn)了云計(jì)算服務(wù)的泛在訪問(wèn),通常包括命令行、Web月及務(wù)、Web門戶等形式。命令行和Web服務(wù)的訪問(wèn)模式既可為終端設(shè)備提供應(yīng)用程序開發(fā)接口,又便于多種服務(wù)的組合。Web門戶是訪問(wèn)接口的另一種模式。通過(guò)Web門戶,云計(jì)算將用戶的桌面應(yīng)用遷移到互聯(lián)網(wǎng),從而使用戶隨時(shí)隨地通過(guò)瀏覽器就可以訪問(wèn)數(shù)據(jù)和程序,提高工作效率。雖然用戶通過(guò)訪問(wèn)接口使用便利的云計(jì)算服務(wù),但是由于不同云計(jì)算服務(wù)商提供接口標(biāo)準(zhǔn)不同,導(dǎo)致用戶數(shù)據(jù)不能在不同服務(wù)商之間遷移。為此,在Intel , Sun和Cisco等公司的倡導(dǎo)下,云計(jì)算互操作論壇(CCIF, cloud computing interop-erability forum)宣告成立,并致力于開發(fā)統(tǒng)一的云計(jì)算接口(UCI, unified cloud interface),以實(shí)現(xiàn)“全球環(huán)境下不同企業(yè)之間可利用云計(jì)算服務(wù)無(wú)縫協(xié)同工作”的目標(biāo)。 3云計(jì)算關(guān)鍵技術(shù) 云計(jì)算的目標(biāo)是以低成本的方式提供高可靠、高可用、規(guī)模可伸縮的個(gè)性化服務(wù)。為了達(dá)到這個(gè)目標(biāo),需要數(shù)據(jù)中心管理、虛擬化、海量數(shù)據(jù)處理、資源管理與調(diào)度、QoS保證、安全與隱私保護(hù)等若干關(guān)鍵技術(shù)加以支持。本節(jié)詳細(xì)介紹核心服務(wù)層與服務(wù)管理層涉及的關(guān)鍵技術(shù)和典型應(yīng)用,并從IaaS,PaaS、SaaS 3個(gè)方面依次對(duì)核心服務(wù)層進(jìn)行分析。 3.1IaaS IaaS層是云計(jì)算的基礎(chǔ)。通過(guò)建立大規(guī)模數(shù)據(jù)中心,IaaS層為上層云計(jì)算服務(wù)提供海量硬件資源。同時(shí),在虛擬化技術(shù)的支持下,IaaS層可以實(shí)現(xiàn)硬件資源的按需配置,并提供個(gè)性化的基礎(chǔ)設(shè)施服務(wù)?;谝陨蟽牲c(diǎn),IaaS層主要研究2個(gè)問(wèn)題:①如何建設(shè)低成本、高效能的數(shù)據(jù)中心;②如何拓展虛擬化技術(shù),實(shí)現(xiàn)彈性、可靠的基礎(chǔ)設(shè)施服務(wù)。 3.1.1 數(shù)據(jù)中心相關(guān)技術(shù) 數(shù)據(jù)中心是云計(jì)算的核心,其資源規(guī)模與可靠性對(duì)上層的云計(jì)算服務(wù)有著重要影響。Google、Facebook等公司十分重視數(shù)據(jù)中心的建設(shè)。在2009年,F(xiàn)acebook的數(shù)據(jù)中心擁有30 000個(gè)計(jì)算節(jié)點(diǎn),截止2010年,計(jì)算節(jié)點(diǎn)數(shù)量更是達(dá)到60 000個(gè);Google公司平均每季度投入約6億美元用于數(shù)據(jù)中心建設(shè),其中僅2010年第4季度便投入了25億美元。
云計(jì)算:體系架構(gòu)與關(guān)鍵技術(shù)(二)本文系統(tǒng)地分析和總結(jié)云計(jì)算的研究現(xiàn)狀,劃分云計(jì)算體系架構(gòu)為核心服務(wù)、服務(wù)管理、用戶訪問(wèn)接口等3個(gè)層次。圍繞低成本、高可靠、高可用、規(guī)模可伸縮等研究目標(biāo),深入全面地介紹了云計(jì)算的關(guān)鍵技術(shù)及最新研究進(jìn)展。在云計(jì)算基礎(chǔ)設(shè)施方面,介紹了云計(jì)算數(shù)據(jù)中心設(shè)計(jì)與管理及資源虛擬化技術(shù):在大規(guī)模數(shù)據(jù)處理方面,分析了海量數(shù)據(jù)處理平臺(tái)及其資源管理與調(diào)度技術(shù);在云計(jì)算服務(wù)保障方面,討論了服務(wù)質(zhì)量保證和安全與隱私保護(hù)技術(shù)。針對(duì)新型的云計(jì)算應(yīng)用和云計(jì)算存在的局限性,又探討并展望了今后的研究方向。最后,介紹了東南大學(xué)云計(jì)算平臺(tái)以及云計(jì)算研究與應(yīng)用方面的相關(guān)成果。
與傳統(tǒng)的企業(yè)數(shù)據(jù)中心不同,云計(jì)算數(shù)據(jù)中心具有以下特點(diǎn): 1)自治性。相較傳統(tǒng)的數(shù)據(jù)中心需要人工維護(hù),云計(jì)算數(shù)據(jù)中心的大規(guī)模性要求系統(tǒng)在發(fā)生異常時(shí)能自動(dòng)重新配置,并從異常中恢復(fù),而不影響服務(wù)的正常使用。 2)規(guī)模經(jīng)濟(jì)。通過(guò)對(duì)大規(guī)模集群的統(tǒng)一化標(biāo)準(zhǔn)化管理,使單位設(shè)備的管理成本大幅降低。 3)規(guī)??蓴U(kuò)展。考慮到建設(shè)成本及設(shè)備更新?lián)Q代,云計(jì)算數(shù)據(jù)中心往往采用大規(guī)模高性價(jià)比的設(shè)備組成硬件資源,并提供擴(kuò)展規(guī)模的空間。 基于以上特點(diǎn),云計(jì)算數(shù)據(jù)中心的相關(guān)研究工作主要集中在以下2個(gè)方面:研究新型的數(shù)據(jù)中心網(wǎng)絡(luò)拓?fù)洌缘统杀?、高帶寬、高可靠的方式連接大規(guī)模計(jì)算節(jié)點(diǎn);研究有效的綠色節(jié)能技術(shù),以提高效能比,減少環(huán)境污染. ①數(shù)據(jù)中心網(wǎng)絡(luò)設(shè)計(jì) 目前,大型的云計(jì)算數(shù)據(jù)中心由上萬(wàn)個(gè)計(jì)算節(jié)點(diǎn)構(gòu)成,而且節(jié)點(diǎn)數(shù)量呈上升趨勢(shì)。計(jì)算節(jié)點(diǎn)的大規(guī)模性對(duì)數(shù)據(jù)中心網(wǎng)絡(luò)的容錯(cuò)能力和可擴(kuò)展性帶來(lái)挑戰(zhàn)。 然而,面對(duì)以上挑戰(zhàn),傳統(tǒng)的樹型結(jié)構(gòu)網(wǎng)絡(luò)拓?fù)?如圖3所示)存在以下缺陷。首先,可靠性低,若匯聚層或核心層的網(wǎng)絡(luò)設(shè)備發(fā)生異常,網(wǎng)絡(luò)性能會(huì)大幅下降。其次,可擴(kuò)展性差,因?yàn)楹诵膶泳W(wǎng)絡(luò)設(shè)備的端口有限,難以支持大規(guī)模網(wǎng)絡(luò)。再次,網(wǎng)絡(luò)帶寬有限,在匯聚層,匯聚交換機(jī)連接邊緣層的網(wǎng)絡(luò)帶寬遠(yuǎn)大于其連接核心層的網(wǎng)絡(luò)帶寬(帶寬比例為80:1,甚至240:1),所以對(duì)于連接在不同匯聚交換機(jī)的計(jì)算節(jié)點(diǎn)來(lái)說(shuō),它們的網(wǎng)絡(luò)通信容易受到阻塞。 為了彌補(bǔ)傳統(tǒng)拓?fù)浣Y(jié)構(gòu)的缺陷,研究者提出了VL2, Portland, DCell, BCube等新型的網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)。這些拓?fù)湓趥鹘y(tǒng)的樹型結(jié)構(gòu)中加入了類似于mesh的構(gòu)造,使得節(jié)點(diǎn)之間連通性與容錯(cuò)能力更高,易于負(fù)載均衡。同時(shí),這些新型的拓?fù)浣Y(jié)構(gòu)利用小型交換機(jī)便可構(gòu)建,使得網(wǎng)絡(luò)建設(shè)成本降低,節(jié)點(diǎn)更容易擴(kuò)展。 圖3傳統(tǒng)的樹型網(wǎng)絡(luò)拓?fù)?/p> 以Portland為例來(lái)說(shuō)明網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),如圖4所示。Portland借鑒了Fat-Tree拓?fù)涞乃枷?,可以?k2/4個(gè)k口交換機(jī)連接k3/4個(gè)計(jì)算節(jié)點(diǎn)。Portland由邊緣層、匯聚層、核心層構(gòu)成。其中邊緣層和匯聚層可分解為若干Pod,每一個(gè)Pod含k臺(tái)交換機(jī),分屬邊界層和匯聚層(每層k/2臺(tái)交換機(jī))。Pod內(nèi)部以完全二分圖的結(jié)構(gòu)相連。邊緣層交換機(jī)連接計(jì)算節(jié)點(diǎn),每個(gè)Pod可連接k2/4個(gè)計(jì)算節(jié)點(diǎn)。匯聚層交換機(jī)連接核心層交換機(jī),每個(gè)Pod連接k2/4臺(tái)核心層交換機(jī)?;赑ortland,可以保證任意兩點(diǎn)之間有多條通路,計(jì)算節(jié)點(diǎn)在任何時(shí)刻兩兩之間可無(wú)阻塞通信,從而滿足云計(jì)算數(shù)據(jù)中心高可靠性、高帶寬的需求。同時(shí),Portland可以利用小型交換機(jī)連接大規(guī)模計(jì)算節(jié)點(diǎn),既帶來(lái)良好的可擴(kuò)展性,又降低了數(shù)據(jù)中心的建設(shè)成本。 圖4 Portland網(wǎng)絡(luò)拓?fù)?/p> ②數(shù)據(jù)中心節(jié)能技術(shù)
云計(jì)算數(shù)據(jù)中心規(guī)模龐大,為了保證設(shè)備正常工作,需要消耗大量的電能。據(jù)估計(jì),一個(gè)擁有50 000個(gè)計(jì)算節(jié)點(diǎn)的數(shù)據(jù)中心每年耗電量超過(guò)1億千瓦時(shí),電費(fèi)達(dá)到930萬(wàn)美元。因此需要研究有效的綠色節(jié)能技術(shù),以解決能耗開銷問(wèn)題。實(shí)施綠色節(jié)能技術(shù),不僅可以降低數(shù)據(jù)中心的運(yùn)行開銷,而且能減少二氧化碳的排放,有助于環(huán)境保護(hù)。 當(dāng)前,數(shù)據(jù)中心能耗問(wèn)題得到工業(yè)界和學(xué)術(shù)界廣泛關(guān)注。Google的分析表明,云計(jì)算數(shù)據(jù)中心的能源開銷主要來(lái)自計(jì)算機(jī)設(shè)備、不間斷電源、供電單元、冷卻裝置、新風(fēng)系統(tǒng)、增濕設(shè)備及附屬設(shè)施(如照明、電動(dòng)門等)。如圖5所示,IT設(shè)備和冷卻裝置的能耗比重較大。因此,需要首先針對(duì)IT設(shè)備能耗和制冷系統(tǒng)進(jìn)行研究,以優(yōu)化數(shù)據(jù)中心的能耗總量或在性能與能耗之間尋求最佳的折衷。針對(duì)IT設(shè)備能耗優(yōu)化問(wèn)題,Nathuji等人提出一種面向數(shù)據(jù)中心虛擬化的自適應(yīng)能耗管理系統(tǒng)Virtual Power,該系統(tǒng)通過(guò)集成虛擬化平臺(tái)自身具備的能耗管理策略,以虛擬機(jī)為單位為數(shù)據(jù)中心提供一種在線能耗管理能力。Pallipadi等人根據(jù)CPU利用率,控制和調(diào)整CPU頻率以達(dá)到優(yōu)化IT設(shè)備能耗的目的。Rao等人研究多電力市場(chǎng)環(huán)境中,如何在保證服務(wù)質(zhì)量前提下優(yōu)化數(shù)據(jù)中心能耗總量的問(wèn)題。針對(duì)制冷系統(tǒng)能耗優(yōu)化問(wèn)題,Samadiani等人綜合考慮空間大小、機(jī)架和風(fēng)扇的擺放以及空氣的流動(dòng)方向等因素,提出一種多層次的數(shù)據(jù)中心冷卻設(shè)備設(shè)計(jì)思路,并對(duì)空氣流和熱交換進(jìn)行建模和仿真,為數(shù)據(jù)中心布局提供理論支持。此外,數(shù)據(jù)中心建成以后,可采用動(dòng)態(tài)制冷策略降低能耗。例如對(duì)于處于休眠的服務(wù)器,可適當(dāng)關(guān)閉一些制冷設(shè)施或改變冷氣流的走向,以節(jié)約成本。 圖5 數(shù)據(jù)中心的能耗分布 3.1.2虛擬化技術(shù) 數(shù)據(jù)中心為云計(jì)算提供了大規(guī)模資源。為了實(shí)現(xiàn)基礎(chǔ)設(shè)施服務(wù)的按需分配,需要研究虛擬化技術(shù)。虛擬化是IaaS層的重要組成部分,也是云計(jì)算的最重要特點(diǎn)。虛擬化技術(shù)可以提供以下特點(diǎn)。 1)資源分享。通過(guò)虛擬機(jī)封裝用戶各自的運(yùn)行環(huán)境,有效實(shí)現(xiàn)多用戶分享數(shù)據(jù)中心資源。 2)資源定制。用戶利用虛擬化技術(shù),配置私有的服務(wù)器,指定所需的CPU數(shù)目、內(nèi)存容量、磁盤空間,實(shí)現(xiàn)資源的按需分配。 3)細(xì)粒度資源管理。將物理服務(wù)器拆分成若干虛擬機(jī),可以提高服務(wù)器的資源利用率,減少浪費(fèi),而且有助于服務(wù)器的負(fù)載均衡和節(jié)能。 基于以上特點(diǎn),虛擬化技術(shù)成為實(shí)現(xiàn)云計(jì)算資源池化和按需服務(wù)的基礎(chǔ)。為了進(jìn)一步滿足云計(jì)算彈性服務(wù)和數(shù)據(jù)中心自治性的需求,需要研究虛擬機(jī)快速部署和在線遷移技術(shù)。 1)虛擬機(jī)快速部署技術(shù)
傳統(tǒng)的虛擬機(jī)部署分為4個(gè)階段:創(chuàng)建虛擬機(jī);安裝操作系統(tǒng)與應(yīng)用程序;配置主機(jī)屬性(如網(wǎng)絡(luò)、主機(jī)名等):啟動(dòng)虛擬機(jī)。該方法部署時(shí)間較長(zhǎng),達(dá)不到云計(jì)一算彈性服務(wù)的要求。盡管可以通過(guò)修改虛擬機(jī)配置(如增減CPU數(shù)目、磁盤空間、內(nèi)存容量)改變單臺(tái)虛擬機(jī)性能,但是更多情況下云計(jì)算需要快速擴(kuò)張?zhí)摂M機(jī)集群的規(guī)模。 為了簡(jiǎn)化虛擬機(jī)的部署過(guò)程,虛擬機(jī)模板技術(shù)。被應(yīng)用于大多數(shù)云計(jì)算平臺(tái)。虛擬機(jī)模板預(yù)裝了操作系統(tǒng)與應(yīng)用軟件,并對(duì)虛擬設(shè)備進(jìn)行了預(yù)配置,可以有效減少虛擬機(jī)的部署時(shí)間。然而虛擬機(jī)模板技術(shù)仍不能滿足快速部署的需求: 一方面,將模板轉(zhuǎn)換成虛擬機(jī)需要復(fù)制模板文件,當(dāng)模板文件較大時(shí),復(fù)制的時(shí)間開悄不可忽視; 另一方面,因?yàn)閼?yīng)用程序沒有加載到內(nèi)存,所以通過(guò)虛擬機(jī)模板轉(zhuǎn)換的虛擬機(jī)需要在啟動(dòng)或加載內(nèi)存鏡像后,方可提供服務(wù)。為此,有學(xué)者提出了基于fork思想的虛擬機(jī)部署方式。該方式受操作系統(tǒng)的fork原語(yǔ)啟發(fā),可以利用父虛擬機(jī)迅速克隆出大量子虛擬機(jī)。與進(jìn)程級(jí)的fork相似,基于虛擬機(jī)級(jí)的fork.子虛擬機(jī)可以繼承父虛擬機(jī)的內(nèi)存狀態(tài)信息,并在創(chuàng)建后即時(shí)可用。當(dāng)部署大規(guī)模虛擬機(jī)時(shí),子虛擬機(jī)可以并行創(chuàng)建,并維護(hù)其獨(dú)立的內(nèi)存空間,而不依賴于父虛擬機(jī)。為了減少文件的復(fù)制開銷,虛擬機(jī)fork采用了“寫時(shí)復(fù)制”(COW, copy-on-write)技術(shù):子虛擬機(jī)在執(zhí)行“寫操作”時(shí),將更新后的文件寫入本機(jī)磁盤:在執(zhí)行“讀操作”時(shí),通過(guò)判斷該文件是否已被更新,確定本機(jī)磁盤或父虛擬機(jī)的磁盤讀取文件。在虛擬機(jī)fork技術(shù)的相關(guān)研究工作中,Potemkin項(xiàng)目實(shí)現(xiàn)了虛擬機(jī)fork技術(shù),并可在1s內(nèi)完成虛擬機(jī)的部署或刪除,但要求父虛擬機(jī)和子虛擬機(jī)在相同的物理機(jī)上。Lagar-Cavilla等人研究了分布式環(huán)境下的并行虛擬機(jī)fork技術(shù)[26]該技術(shù)可以在1s內(nèi)完成32臺(tái)虛擬機(jī)的部署。虛擬機(jī)fork是一種即時(shí)(on-demand )部署技術(shù),雖然提高了部署效率,但通過(guò)該技術(shù)部署的子虛擬機(jī)不能持久化保存。 2)虛擬機(jī)在線遷移技術(shù) 虛擬機(jī)在線遷移是指虛擬機(jī)在運(yùn)行狀態(tài)下從一臺(tái)物理機(jī)移動(dòng)到另一臺(tái)物理機(jī)。虛擬機(jī)在線遷移技術(shù)對(duì)云計(jì)算平臺(tái)有效管理具有重要意義。 ①提高系統(tǒng)可靠性。一方面,當(dāng)物理機(jī)需要維護(hù)時(shí),可以將運(yùn)行于該物理機(jī)的虛擬機(jī)轉(zhuǎn)移到其他物理機(jī)。另一方面,可利用在線遷移技術(shù)完成虛擬機(jī)運(yùn)行時(shí)備份,當(dāng)主虛擬機(jī)發(fā)生異常時(shí),可將服務(wù)無(wú)縫切換至備份虛擬機(jī)。 ②有利于負(fù)載均衡。當(dāng)物理機(jī)負(fù)載過(guò)重時(shí),可以通過(guò)虛擬機(jī)遷移達(dá)到負(fù)載均衡,優(yōu)化數(shù)據(jù)中心性能。 ③有利于設(shè)計(jì)節(jié)能方案。通過(guò)集中零散的虛擬機(jī),可使部分物理機(jī)完全空閑,以便關(guān)閉這些物理機(jī)(或使物理機(jī)休眠),達(dá)到節(jié)能目的。 此外,虛擬機(jī)的在線遷移對(duì)用戶透明,云計(jì)算平臺(tái)可以在不影響服務(wù)質(zhì)量的情況下優(yōu)化和管理數(shù)據(jù)中心。在線遷移技術(shù)于2005年由Clark等人提出,通過(guò)迭代的預(yù)復(fù)制(pre-copy)策略同步遷移前后的虛擬機(jī)的狀態(tài)。傳統(tǒng)的虛擬機(jī)遷移是在LAN中進(jìn)行的,為了在數(shù)據(jù)中心之間完成虛擬機(jī)在線遷移,Hirofuchi等人介紹了一種在WAN環(huán)境下的遷移方法。這種方法在保證虛擬機(jī)數(shù)據(jù)一致性的前提下,盡可能少地犧牲虛擬機(jī)I/O性能,加快遷移速度。利用虛擬機(jī)在線遷移技術(shù),Remus系統(tǒng)設(shè)計(jì)了虛擬機(jī)在線備份方法。當(dāng)原始虛擬機(jī)發(fā)生錯(cuò)誤時(shí),系統(tǒng)可以立即切換到備份虛擬機(jī),而不會(huì)影響到關(guān)鍵任務(wù)的執(zhí)行,提高了系統(tǒng)可靠性。 3.1.3典型的IaaS層平臺(tái) 本節(jié)介紹了3種典型的IaaS平臺(tái),包括AmazonEC2, Eucalyptus和東南大學(xué)云計(jì)算平臺(tái)。 Amazon彈性計(jì)算云(EC2,elastic computingcloud)為公眾提供基于Xen虛擬機(jī)的基礎(chǔ)設(shè)施服務(wù)。Amazon EC2的虛擬機(jī)分為標(biāo)準(zhǔn)型、高內(nèi)存型、高性能型等多種類型,每一種類型的價(jià)格各不相同。用戶可以根據(jù)自身應(yīng)用的特點(diǎn)與虛擬機(jī)價(jià)格,定制虛擬機(jī)的硬件配置和操作系統(tǒng)。Amazon EC2的計(jì)費(fèi)系統(tǒng)根據(jù)用戶的使用情況(一般為使用時(shí)間)對(duì)用戶收費(fèi)。在彈性服務(wù)方面,Amazon EC2可以根據(jù)用戶自定義的彈性規(guī)則,擴(kuò)張或收縮虛擬機(jī)集群規(guī)模。目前,Amazon EC2已擁有Ericsson, Active.com, Autodesk等大量用戶。 Eucalyptus是加州大學(xué)圣巴巴拉分校開發(fā)的開源IaaS平臺(tái)。區(qū)別于Amazon EC2等商業(yè)IaaS平臺(tái),Eucalyptus的設(shè)計(jì)目標(biāo)是成為研究和發(fā)展云計(jì)算的基礎(chǔ)平臺(tái)。為了實(shí)現(xiàn)這個(gè)目標(biāo),Eucalyptus的設(shè)計(jì)強(qiáng)調(diào)開源化、模塊化,以便研究者對(duì)各功能模塊升級(jí)、改造和更換。目前,Eucalyptus已實(shí)現(xiàn)了和Amazon EC2相兼容的API,并部署于全球各地的研究機(jī)構(gòu)。 東南大學(xué)云計(jì)算平臺(tái)面向計(jì)算密集型和數(shù)據(jù)密集型應(yīng)用,由3 500顆CPU內(nèi)核和SOOTB高速存儲(chǔ)設(shè)備構(gòu)成,提供37萬(wàn)億次浮點(diǎn)計(jì)算能力。其基礎(chǔ)設(shè)施服務(wù)不僅支持Xen, KVM, VMware等虛擬化技術(shù),而且支持物理計(jì)算節(jié)點(diǎn)的快速部署,可根據(jù)科研人員的應(yīng)用需求,為其按需配置物理的或虛擬的私有計(jì)算集群,并自動(dòng)安裝操作系統(tǒng)、應(yīng)用軟件。由于部分高性能計(jì)算應(yīng)用對(duì)網(wǎng)絡(luò)延時(shí)敏感,其數(shù)據(jù)中心利用40Gbit/s QDR InfiniBand作為數(shù)據(jù)傳輸網(wǎng)絡(luò),提供高帶寬低延時(shí)的網(wǎng)絡(luò)服務(wù)。目前,東南大學(xué)云計(jì)算平臺(tái)承擔(dān)了AMS-02(見第5節(jié))數(shù)據(jù)分析處理、電磁仿真、分子動(dòng)力學(xué)模擬等科學(xué)計(jì)算任務(wù)。 3.2 PaaS
PaaS層作為3層核心服務(wù)的中間層,既為上層應(yīng)用提供簡(jiǎn)單、可靠的分布式編程框架,又需要基于底層的資源信息調(diào)度作業(yè)、管理數(shù)據(jù),屏蔽底層系統(tǒng)的復(fù)雜性。隨著數(shù)據(jù)密集型應(yīng)用的普及和數(shù)據(jù)規(guī)模的日益龐大,PaaS層需要具備存儲(chǔ)與處理海量數(shù)據(jù)的能力。本節(jié)先介紹PaaS層的海量數(shù)據(jù)存儲(chǔ)與處理技術(shù),然后討論基于這些技術(shù)的資源管理與調(diào)度策略。 3.2.1海量數(shù)據(jù)存儲(chǔ)與處理技術(shù) 1)海量數(shù)據(jù)存儲(chǔ)技術(shù) 云計(jì)算環(huán)境中的海量數(shù)據(jù)存儲(chǔ)既要考慮存儲(chǔ)系統(tǒng)的I/O性能,又要保證文件系統(tǒng)的可靠性與可用性。 Ghemawat等人為Google設(shè)計(jì)了GFS( googlefile system。根據(jù)Google應(yīng)用的特點(diǎn),GFS對(duì)其應(yīng)用環(huán)境做了6點(diǎn)假設(shè):①系統(tǒng)架設(shè)在容易失效的硬件平臺(tái)上;②需要存儲(chǔ)大量GB級(jí)甚至TB級(jí)的大文件;③文件讀操作以大規(guī)模的流式讀和小規(guī)模的隨機(jī)讀構(gòu)成;④文件具有一次寫多次讀的特點(diǎn);⑤系統(tǒng)需要有效處理并發(fā)的追加寫操作;⑥高持續(xù)I/O帶寬比低傳輸延遲重要。 圖6展示了GFS的執(zhí)行流程。在GFS中,一個(gè)大文件被劃分成若干固定大小(如64MB)的數(shù)據(jù)塊,并分布在計(jì)算節(jié)點(diǎn)的本地硬盤,為了保證數(shù)據(jù)可靠性,每一個(gè)數(shù)據(jù)塊都保存有多個(gè)副本,所有文件和數(shù)據(jù)塊副本的元數(shù)據(jù)由元數(shù)據(jù)管理節(jié)點(diǎn)管理。GFS的優(yōu)勢(shì)在于:①由于文件的分塊粒度大,GFS可以存取PB級(jí)的超大文件;②通過(guò)文件的分布式存儲(chǔ),GFS可并行讀取文件,提供高I/O吞吐率;③鑒于上述假設(shè)4,GFS可以簡(jiǎn)化數(shù)據(jù)塊副本間的數(shù)據(jù)同步問(wèn)題;④文件塊副本策略保證了文件可靠性。 Bigtable是基于GFS開發(fā)的分布式存儲(chǔ)系統(tǒng),它將提高系統(tǒng)的適用性、可擴(kuò)展性、可用性和存儲(chǔ)性能作為設(shè)計(jì)目標(biāo)。Bigtable的功能與分布式數(shù)據(jù)庫(kù)類似,用以存儲(chǔ)結(jié)構(gòu)化或半結(jié)構(gòu)化數(shù)據(jù),為Google應(yīng)用(如搜索引擎、Google Earth等)提供數(shù)據(jù)存儲(chǔ)與查詢服務(wù)。在數(shù)據(jù)管理方面,Bigtable將一整張數(shù)據(jù)表拆分成許多存儲(chǔ)于GFS的子表,并由分布式鎖服務(wù)Chubby負(fù)責(zé)數(shù)據(jù)一致性管理。在數(shù)據(jù)模型方面,Bigtable以行名、列名、時(shí)間戳建立索引,表中的數(shù)據(jù)項(xiàng)由無(wú)結(jié)構(gòu)的字節(jié)數(shù)組表示。這種靈活的數(shù)據(jù)模型保證Bigtable適用于多種不同應(yīng)用環(huán)境。圖7展示了如何在Bigtable中存儲(chǔ)網(wǎng)頁(yè),其中t1~t5為時(shí)間戮。 由于Bigtable需要管理節(jié)點(diǎn)集中管理元數(shù)據(jù),所以存在性能瓶頸和單點(diǎn)失效問(wèn)題。為此,DeCandia等人設(shè)計(jì)了基于P2P結(jié)構(gòu)的Dynamo存儲(chǔ)系統(tǒng),并應(yīng)用于Amazon的數(shù)據(jù)存儲(chǔ)平臺(tái)。借助于P2P技術(shù)的特點(diǎn),Dynamo允許使用者根據(jù)工作負(fù)載動(dòng)態(tài)調(diào)整集群規(guī)模。另外,在可用性方面,Dynamo采用零跳分布式散列表結(jié)構(gòu)降低操作響應(yīng)時(shí)間;在可靠性方面,Dynamo利用文件副本機(jī)制應(yīng)對(duì)節(jié)點(diǎn)失效。由于保證副本強(qiáng)一致性會(huì)影響系統(tǒng)性能,所以,為了承受每天數(shù)千萬(wàn)的并發(fā)讀寫請(qǐng)求,Dynamo中設(shè)計(jì)了最終一致性模型,弱化副本一致性,保證提高性能。 圖6 GFS執(zhí)行流程 圖7 Bigtable的存儲(chǔ)方式
云計(jì)算:體系架構(gòu)與關(guān)鍵技術(shù)(三)本文系統(tǒng)地分析和總結(jié)云計(jì)算的研究現(xiàn)狀,劃分云計(jì)算體系架構(gòu)為核心服務(wù)、服務(wù)管理、用戶訪問(wèn)接口等3個(gè)層次。圍繞低成本、高可靠、高可用、規(guī)??缮炜s等研究目標(biāo),深入全面地介紹了云計(jì)算的關(guān)鍵技術(shù)及最新研究進(jìn)展。在云計(jì)算基礎(chǔ)設(shè)施方面,介紹了云計(jì)算數(shù)據(jù)中心設(shè)計(jì)與管理及資源虛擬化技術(shù):在大規(guī)模數(shù)據(jù)處理方面,分析了海量數(shù)據(jù)處理平臺(tái)及其資源管理與調(diào)度技術(shù);在云計(jì)算服務(wù)保障方面,討論了服務(wù)質(zhì)量保證和安全與隱私保護(hù)技術(shù)。針對(duì)新型的云計(jì)算應(yīng)用和云計(jì)算存在的局限性,又探討并展望了今后的研究方向。最后,介紹了東南大學(xué)云計(jì)算平臺(tái)以及云計(jì)算研究與應(yīng)用方面的相關(guān)成果。
圖8 MapReduce的執(zhí)行過(guò)程 2)數(shù)據(jù)處理技術(shù)與編程模型 PaaS平臺(tái)不僅要實(shí)現(xiàn)海量數(shù)據(jù)的存儲(chǔ),而且要提供面向海量數(shù)據(jù)的分析處理功能。由于PaaS平臺(tái)部署于大規(guī)模硬件資源上,所以海量數(shù)據(jù)的分析處理需要抽象處理過(guò)程,并要求其編程模型支持規(guī)模擴(kuò)展,屏蔽底層細(xì)節(jié)并且簡(jiǎn)單有效。 MapReduce是Google提出的并行程序編程模型,運(yùn)行于GFS之上。如圖8所示,一個(gè)MapReduce作業(yè)由大量Map和Reduce任務(wù)組成,根據(jù)兩類任務(wù)的特點(diǎn),可以把數(shù)據(jù)處理過(guò)程劃分成Map和Reduce 2個(gè)階段:在Map階段,Map任務(wù)讀取輸入文件塊,并行分析處理,處理后的中間結(jié)果保存在Map任務(wù)執(zhí)行節(jié)點(diǎn):在Reduce階段,Reduce任務(wù)讀取并合并多個(gè)Map任務(wù)的中間結(jié)果。MapReduce可以簡(jiǎn)化大規(guī)模數(shù)據(jù)處理的難度:首先,MapReduce中的數(shù)據(jù)同步發(fā)生在Reduce讀取Map中間結(jié)果的階段,這個(gè)過(guò)程由編程框架自動(dòng)控制,從而簡(jiǎn)化數(shù)據(jù)同步問(wèn)題;其次,由于MapReduce會(huì)監(jiān)測(cè)任務(wù)執(zhí)行狀態(tài),重新執(zhí)行異常狀態(tài)任務(wù),所以程序員不需考慮任務(wù)失敗問(wèn)題;再次,Map任務(wù)和Reduce任務(wù)都可以并發(fā)執(zhí)行,通過(guò)增加計(jì)算節(jié)點(diǎn)數(shù)量便可加快處理速度:最后,在處理大規(guī)模數(shù)據(jù)時(shí),Map/Reduce任務(wù)的數(shù)目遠(yuǎn)多于計(jì)算節(jié)點(diǎn)的數(shù)目有助于計(jì)算節(jié)點(diǎn)負(fù)載均衡。 雖然MapReduce具有諸多優(yōu)點(diǎn),但仍具有局限性:①M(fèi)apReduce靈活性低,很多問(wèn)題難以抽象成Map和Reduce操作;② MapReduce在實(shí)現(xiàn)迭代算法時(shí)效率較低:③ MapReduce在執(zhí)行多數(shù)據(jù)集的交運(yùn)算時(shí)效率不高。為此,Sawzall語(yǔ)言和Pig語(yǔ)言封裝了MapReduce,可以自動(dòng)完成數(shù)據(jù)查詢操作到MapReduce的映射;Ekanayake等人設(shè)計(jì)了Twister平臺(tái),使MapReduce有效支持迭代操作:Yang等人設(shè)計(jì)了Map-Reduce-Merge框架,通過(guò)加入Merge階段實(shí)現(xiàn)多數(shù)據(jù)集的交操作。在此基礎(chǔ)上,Wang等人將Map-Reduce-Merge框架應(yīng)用于構(gòu)建OLAP數(shù)據(jù)立方體:文獻(xiàn)將MapRedcue應(yīng)用到并行求解大規(guī)模組合優(yōu)化問(wèn)題(如并行遺傳算法)。 由于許多問(wèn)題難以抽象成MapReduce模型,為了使并行編程框架靈活普適,Isard等人設(shè)計(jì)Dryad框架。Dryad采用了基于有向無(wú)環(huán)圖(DAGdirected acyclic graph)的并行模型(如圖9所示)。在Dryad中,每一個(gè)數(shù)據(jù)處理作業(yè)都由DAG表示,圖中的每一個(gè)節(jié)點(diǎn)表示需要執(zhí)行的子任務(wù),節(jié)點(diǎn)之間的邊表示2個(gè)子任務(wù)之間的通信。Dryad可以直觀地表示出作業(yè)內(nèi)的數(shù)據(jù)流?;贒AG優(yōu)化技術(shù),Dryad可以更加簡(jiǎn)單高效地處理復(fù)雜流程。同MapReduce相似,Dryad為程序開發(fā)者屏蔽T底層的復(fù)雜性,并可在計(jì)算節(jié)點(diǎn)規(guī)模擴(kuò)展時(shí)提高處理性能。在此基礎(chǔ)上,Yu等人設(shè)計(jì)了DryadLINQ數(shù)據(jù)查詢語(yǔ)言,該語(yǔ)言和.NET平臺(tái)無(wú)縫結(jié)合,并利用Dryad模型對(duì)Azure平臺(tái)上的數(shù)據(jù)進(jìn)行查詢處理。 圖9 Dryad的任務(wù)模型 3.2.2資源管理與調(diào)度技術(shù) 海量數(shù)據(jù)處理平臺(tái)的大規(guī)模性給資源管理與調(diào)度帶來(lái)挑戰(zhàn)。研究有效的資源管理與調(diào)度技術(shù)可以提高M(jìn)apReduce, Dryad等PaaS層海量數(shù)據(jù)處理平臺(tái)的性能。 1)副本管理技術(shù) 副本機(jī)制是PaaS層保證數(shù)據(jù)可靠性的基礎(chǔ),有效的副本策略不但可以降低數(shù)據(jù)丟失的風(fēng)險(xiǎn),而且能優(yōu)化作業(yè)完成時(shí)間。目前,Hadoop(見3.2.3節(jié))采用了機(jī)架敏感的副本放置策略。該策略默認(rèn)文件系統(tǒng)部署于傳統(tǒng)網(wǎng)絡(luò)拓?fù)涞臄?shù)據(jù)中心。以放置3個(gè)文件副本為例,由于同一機(jī)架的計(jì)算節(jié)點(diǎn)間網(wǎng)絡(luò)帶寬高,所以機(jī)架敏感的副本放置策略將2個(gè)文件副本置于同一機(jī)架,另一個(gè)置于不同機(jī)架。這樣的策略既考慮了計(jì)算節(jié)點(diǎn)和機(jī)架失效的情況,也減少了因?yàn)閿?shù)據(jù)一致性維護(hù)帶來(lái)的網(wǎng)絡(luò)傳輸開銷。除此之外,文件副本放置還與應(yīng)用有關(guān),Eltabakh等人提出了一種靈活的數(shù)據(jù)放置策略CoHadoop,用戶可以根據(jù)應(yīng)用需求自定義文件塊的存放位置,使需要協(xié)同處理的數(shù)據(jù)分布在相同的節(jié)點(diǎn)上,從而在一定程度上減少了節(jié)點(diǎn)之間的數(shù)據(jù)傳輸開銷。但是,目前PaaS層的副本調(diào)度大多局限于單數(shù)據(jù)中心,從容災(zāi)備份和負(fù)載均衡角度,需要考慮面向多數(shù)據(jù)中心的副本管理策略。鄭湃等人提出了三階段數(shù)據(jù)布局策略,分別針對(duì)跨數(shù)據(jù)中心數(shù)據(jù)傳輸、數(shù)據(jù)依賴關(guān)系和全局負(fù)載均衡3個(gè)目標(biāo)對(duì)數(shù)據(jù)布局方案進(jìn)行求解和優(yōu)化。雖然該研究對(duì)多數(shù)據(jù)中心間的數(shù)據(jù)管理起到優(yōu)化作用,但是未深入討論副本管理策略。因此,需在多數(shù)據(jù)中心環(huán)境下研究副本放置、副本選擇及一致性維護(hù)和更新機(jī)制。 2)任務(wù)調(diào)度算法PaaS層的海量數(shù)據(jù)處理以數(shù)據(jù)密集型作業(yè)為主,其執(zhí)行性能受到I/O帶寬的影響。但是,網(wǎng)絡(luò)帶寬是計(jì)算集群(計(jì)算集群既包括數(shù)據(jù)中心中物理計(jì)算節(jié)點(diǎn)集群,也包括虛擬機(jī)構(gòu)建的集群)中的急缺的資源:①云計(jì)算數(shù)據(jù)中心考慮成本因素,很少采用高帶寬的網(wǎng)絡(luò)設(shè)備;②IaaS層部署的虛擬機(jī)集群共享有限的網(wǎng)絡(luò)帶寬;③海量數(shù)據(jù)的讀寫操作占用了大量帶寬資源。因此PaaS層海量數(shù)據(jù)處理平臺(tái)的任務(wù)調(diào)度需要考慮網(wǎng)絡(luò)帶寬因素。 為了減少任務(wù)執(zhí)行過(guò)程中的網(wǎng)絡(luò)傳輸開銷,可以將任務(wù)調(diào)度到輸入數(shù)據(jù)所在的計(jì)算節(jié)點(diǎn),因此,需要研究面向數(shù)據(jù)本地性(data-locality)的任務(wù)調(diào)度算法。Hadoop以“盡力而為”的策略保證數(shù)據(jù)本地性。雖然該算法易于實(shí)現(xiàn),但是沒有做到全局優(yōu)化,在實(shí)際環(huán)境中不能保證較高的數(shù)據(jù)本地性。為了達(dá)到全局優(yōu)化,F(xiàn)ischer等人為MapReduce任務(wù)調(diào)度建立數(shù)學(xué)模型,并提出了HTA(Hadoop taskassignment)問(wèn)題。該問(wèn)題為一個(gè)變形的二部圖匹配(如圖10所示),目標(biāo)是將任務(wù)分配到計(jì)算節(jié)點(diǎn),并使各計(jì)算節(jié)點(diǎn)負(fù)載均衡,其中si,tj分別表示計(jì)算節(jié)點(diǎn)和任務(wù),實(shí)邊表示si有tj的輸入數(shù)據(jù),虛邊表示si沒有tj的輸入數(shù)據(jù),wt和wr分別表示調(diào)度開銷。該研究利用3-SAI,問(wèn)題證明了HTA問(wèn)題是NP完全的,并設(shè)計(jì)了MaxCover-BalAssign算法解決該問(wèn)題。雖然MaxCover-BalAssign算法的理論上限接近最優(yōu)解,但是時(shí)間復(fù)雜度過(guò)高,難以應(yīng)用在大規(guī)模環(huán)境中。為此,Jin等人設(shè)計(jì)了BAR調(diào)度算法,基于“先均勻分配再均衡負(fù)載”的思想,BAR算法在快速求解大規(guī)模HTA問(wèn)題同時(shí),得到優(yōu)于MaxCover-BalAssign算法的調(diào)度結(jié)果。 圖10 HTA問(wèn)題模型 除了保證數(shù)據(jù)本地性,PaaS層的作業(yè)調(diào)度器還需要考慮作業(yè)之間的公平調(diào)度。PaaS層的工作負(fù)載中既包括子任務(wù)少、執(zhí)行時(shí)間短、對(duì)響應(yīng)時(shí)間敏感的即時(shí)作業(yè)(如數(shù)據(jù)查詢作業(yè)),也包括子任務(wù)多、執(zhí)行時(shí)間長(zhǎng)的長(zhǎng)期作業(yè)(如數(shù)據(jù)分析作業(yè))。研究公平調(diào)度算法可以及時(shí)為即時(shí)作業(yè)分配資源,使其快速響應(yīng)。因?yàn)閿?shù)據(jù)本地性和作業(yè)公平性不能同時(shí)滿足,所以Zaharia等人在Max-Min公平調(diào)度算法的基礎(chǔ)上設(shè)計(jì)了延遲調(diào)度(delay scheduling)算法該算法通過(guò)推遲調(diào)度一部分作業(yè)并使這些作業(yè)等待合適的計(jì)算節(jié)點(diǎn),以達(dá)到較高的數(shù)據(jù)本地性。但是在等待開銷較大的情況下,延遲策略會(huì)影響作業(yè)完成時(shí)間。為了折衷數(shù)據(jù)本地性和作業(yè)公平性,Isard等設(shè)計(jì)了基于最小代價(jià)流的調(diào)度模型fuel,并應(yīng)用于Microsoft的Azure平臺(tái)。如圖11所示,wij表示作業(yè)i的子任務(wù)j,wij和C, R, X, U的邊分別表示任務(wù)被調(diào)度到計(jì)算節(jié)點(diǎn)、機(jī)架、數(shù)據(jù)中心和不被調(diào)度,每條邊帶有權(quán)值,并需要根據(jù)集群狀態(tài)實(shí)時(shí)更新權(quán)值。當(dāng)系統(tǒng)狀態(tài)發(fā)生改變時(shí)(如有計(jì)算節(jié)點(diǎn)空閑、有新任務(wù)加入),調(diào)度器對(duì)調(diào)度圖求解最小代價(jià)流,并做出調(diào)度決策。雖然該方法可以得到全局優(yōu)化的調(diào)度結(jié)果,但是求解最小代價(jià)流會(huì)帶來(lái)計(jì)算開銷,當(dāng)圖的規(guī)模很大時(shí),計(jì)算開銷將嚴(yán)重影響系統(tǒng)性能。 圖11 Quiacy的調(diào)度模型 3)任務(wù)容錯(cuò)機(jī)制 為了使PaaS平臺(tái)可以在任務(wù)發(fā)生異常時(shí)自動(dòng)從異常狀態(tài)恢復(fù),需要研究任務(wù)容錯(cuò)機(jī)制。MapReduce的容錯(cuò)機(jī)制在檢測(cè)到異常任務(wù)時(shí),會(huì)啟動(dòng)該任務(wù)的備份任務(wù)。備份任務(wù)和原任務(wù)同時(shí)進(jìn)行,當(dāng)其中一個(gè)任務(wù)順利完成時(shí),調(diào)度器立即結(jié)束另一個(gè)任務(wù)。Hadoop的任務(wù)調(diào)度器實(shí)現(xiàn)了備份任務(wù)調(diào)度策略。但是現(xiàn)有的Hadoop調(diào)度器檢測(cè)異常任務(wù)的算法存在較大缺陷:如果一個(gè)任務(wù)的進(jìn)度落后于同類型任務(wù)進(jìn)度的20%. Hadoop則把該任務(wù)當(dāng)做異常任務(wù),然而,當(dāng)集群異構(gòu)時(shí),任務(wù)之間的執(zhí)行進(jìn)度差異較大,因而在異構(gòu)集群中很容易產(chǎn)生大量的備份任務(wù)。為此,Zaharia等人研究了異構(gòu)環(huán)境下異常任務(wù)的發(fā)現(xiàn)機(jī)制,并設(shè)計(jì)了LATE(longest approximate time to end)調(diào)度器。通過(guò)估算Map任務(wù)的完成時(shí)間,LATE為估計(jì)完成時(shí)間最晚的任務(wù)產(chǎn)生備份。雖然LATE可以有效避免產(chǎn)生過(guò)多的備份任務(wù),但是該方法假設(shè)Map任務(wù)處理速度是穩(wěn)定的,所以在Map任務(wù)執(zhí)行速度變化的情況下(如先快后慢),LATE便不能達(dá)到理想的性能。 3.2.3典型的PaaS平臺(tái) 本節(jié)介紹了3種典型的PaaS平臺(tái):Google AppEngine, Hadoop和Microsoft Azure。這些平臺(tái)都基于海量數(shù)據(jù)處理技術(shù)搭建,且各具代表性。圖12比較了上述PaaS平臺(tái)所采用的關(guān)鍵技術(shù)。 Google App Engine是基于Google數(shù)據(jù)中心的開發(fā)、托管Web應(yīng)用程序的平臺(tái)。通過(guò)該平臺(tái),程序開發(fā)者可以構(gòu)建規(guī)模可擴(kuò)展的Web應(yīng)用程序,而不用考慮底硬件基礎(chǔ)設(shè)施的管理。App Engine由GFS管理數(shù)據(jù)、MapReduce處理數(shù)據(jù),并用Sawzall為編程語(yǔ)言提供接口。 圖12典型PaaS平臺(tái)的比較 Hadoop是開源的分布式處理平臺(tái),其HDFS, Hadoop MapReduce和Pig模塊實(shí)現(xiàn)TGFS, MapReduce和Sawzall等數(shù)據(jù)處理技術(shù)。與Google的分布式處理平臺(tái)相似,Hadoop在可擴(kuò)展性、可靠性、可用性方面做了優(yōu)化,使其適用于大規(guī)模的云環(huán)境。目前,Hadoop由Apache基金會(huì)維護(hù),Yahoo!, Facebook、淘寶等公司利用Hadoop構(gòu)建數(shù)據(jù)處理平臺(tái),以滿足海量數(shù)據(jù)分析處理需求。Microsoft Azure以Dryad作為數(shù)據(jù)處理引擎,允許用戶在Microsoft的數(shù)據(jù)中心上構(gòu)建、管理、擴(kuò)展應(yīng)用程序。目前,Azure支持按需付費(fèi),并免費(fèi)提供750h的計(jì)算時(shí)長(zhǎng)和1GB數(shù)據(jù)庫(kù)空間,其服務(wù)范圍已經(jīng)遍布41個(gè)國(guó)家和地區(qū)。 3.3 SaaS SaaS層面向的是云計(jì)算終端用戶,提供基于互聯(lián)網(wǎng)的軟件應(yīng)用服務(wù)。隨著Web服務(wù)、HTMLS ,Ajax, Mashup等技術(shù)的成熟與標(biāo)準(zhǔn)化,SaaS應(yīng)用近年來(lái)發(fā)展迅速。 典型的SaaS應(yīng)用包括Google Apps, SalesforceCRM等。 Google Apps包括Google Docs, GMail等一系列SaaS應(yīng)用。Google將傳統(tǒng)的桌面應(yīng)用程序(如文字處理軟件、電子郵件服務(wù)等)遷移到互聯(lián)網(wǎng),并托管這些應(yīng)用程序。用戶通過(guò)Web瀏覽器便可隨時(shí)隨地訪問(wèn)Google Apps,而不需要下載、安裝或維護(hù)任何硬件或軟件。Google Apps為每個(gè)應(yīng)用提供了編程接口,使各應(yīng)用之間可以隨意組合。Google Apps的用戶既可以是個(gè)人用戶也可以是服務(wù)提供商。比如企業(yè)可向Google申請(qǐng)域名為@example.com的郵件服務(wù),滿足企業(yè)內(nèi)部收發(fā)電子郵件的需求。在此期間,企業(yè)只需對(duì)資源使用量付費(fèi),而不必考慮購(gòu)置、維護(hù)郵件服務(wù)器、郵件管理系統(tǒng)的開銷。 Salesforce CRM部署于Force.com云計(jì)算平臺(tái),為企業(yè)提供客戶關(guān)系管理服務(wù),包括銷售云、服務(wù)云、數(shù)據(jù)云等部分。通過(guò)租用CRM的服務(wù),企業(yè)可以擁有完整的企業(yè)管理系統(tǒng),用以管理內(nèi)部員工、生產(chǎn)銷售、客戶業(yè)務(wù)等。利用CRM預(yù)定義的服務(wù)組件,企業(yè)可以根據(jù)自身業(yè)務(wù)的特點(diǎn)定制工作流程?;跀?shù)據(jù)隔離模型,CRM可以隔離不同企業(yè)的數(shù)據(jù),為每個(gè)企業(yè)分別提供一份應(yīng)用程序的副本。CRM可根據(jù)企業(yè)的業(yè)務(wù)量為企業(yè)彈性分配資源。除此之外,CRM為移動(dòng)智能終端開發(fā)了應(yīng)用程序,支持各種類型的客戶端設(shè)備訪問(wèn)該服務(wù),實(shí)現(xiàn)泛在接入。 3.4服務(wù)管理層 為了使云計(jì)算核心服務(wù)高效、安全地運(yùn)行,需要服務(wù)管理技術(shù)加以支持。服務(wù)管理技術(shù)包括QoS保證機(jī)制、安全與隱私保護(hù)技術(shù)、資源監(jiān)控技術(shù)、服務(wù)計(jì)費(fèi)模型等。其中,QoS保證機(jī)制和安全與隱私保護(hù)技術(shù)是保證云計(jì)算可靠性、可用性、安全性的基礎(chǔ)。為此,本節(jié)著重介紹QoS保證機(jī)制和安全與隱私保護(hù)技術(shù)的研究現(xiàn)狀。 3.4.1 QoS保證機(jī)制 云計(jì)算不僅要為用戶提供滿足應(yīng)用功能需求的資源和服務(wù),同時(shí)還需要提供優(yōu)質(zhì)的QoS(如可用性、可靠性、可擴(kuò)展、性能等),以保證應(yīng)用順利高效地執(zhí)行。這是云計(jì)算得以被廣泛采納的基礎(chǔ)。圖13給出了云計(jì)算中QoS保證機(jī)制,首先,用戶從自身應(yīng)用的業(yè)務(wù)邏輯層面提出相應(yīng)的QoS需求;為了能夠在使用相應(yīng)服務(wù)的過(guò)程中始終滿足用戶的需求,云計(jì)算服務(wù)提供商需要對(duì)QoS水平進(jìn)行匹配并且與用戶協(xié)商制定服務(wù)水平協(xié)議;最后,根據(jù)SLA內(nèi)容進(jìn)行資源分配以達(dá)到QoS保證的目的。針對(duì)以上3個(gè)步驟,本節(jié)依次介紹IaaS、PaaS和SaaS中的QoS保證機(jī)制。 圖13 QoS保證機(jī)制 1) IaaS層的QoS保證機(jī)制 IaaS層可看作是一個(gè)資源池,其中包括可定制的計(jì)算、網(wǎng)絡(luò)、存儲(chǔ)等資源,并根據(jù)用戶需求按需提供相應(yīng)的服務(wù)能力。文獻(xiàn)指出,IaaS層所關(guān)心QoS參數(shù)主要可分為兩類:一類是云計(jì)算服務(wù)提供者所提供的系統(tǒng)最小服務(wù)質(zhì)量,如服務(wù)器可用性及網(wǎng)絡(luò)性能等:另一類服務(wù)提供者承諾的服務(wù)響應(yīng)時(shí)間。 為了能夠在服務(wù)運(yùn)行過(guò)程中有效保證其性能,IaaS層用戶需要針對(duì)QoS參數(shù)同云計(jì)算服務(wù)提供商簽訂相應(yīng)的SLA。根據(jù)應(yīng)用類型不同可分為兩類:確定性SLA (deterministic SLA)以及可能性SLA(probabilistic SLA)。其中確定性SLA主要針對(duì)關(guān)鍵性核心服務(wù),這類服務(wù)通常需要十分嚴(yán)格的性能保證(如銀行核心業(yè)務(wù)等),因此需要100%確保其相應(yīng)的QoS需求。對(duì)于可能性SLA,其通常采用可用性百分比表示(如保證硬件每月99.95%的時(shí)間正常運(yùn)行),這類服務(wù)通常并不需要十分嚴(yán)格的QoS保證,主要適用于中小型商業(yè)模式及企業(yè)級(jí)應(yīng)用。在簽訂完SLA后,若服務(wù)提供商未按照SLA進(jìn)行QoS保障時(shí),則對(duì)服務(wù)提供商啟動(dòng)懲罰機(jī)制(如賠款),以補(bǔ)償對(duì)用戶造成的損失。 在實(shí)際系統(tǒng)方面,近年來(lái)出現(xiàn)了若干通過(guò)SLA技術(shù)實(shí)現(xiàn)IaaS層QoS保證機(jī)制的商用云計(jì)算系統(tǒng)或平臺(tái),主要包括Amazon EC2 , GoGrid、Rackspace等,其QoS參數(shù)如表2所示。 2) PaaS/SaaS層的QoS保證機(jī)制 在云計(jì)算環(huán)境中,PaaS層主要負(fù)責(zé)提供云計(jì)算應(yīng)用程序(服務(wù))的運(yùn)行環(huán)境及資源管理。SaaS提供以服務(wù)為形式的應(yīng)用程序。與IaaS層的QoS保證機(jī)制相似,PaaS層和SaaS層的QoS保證也需要經(jīng)歷3個(gè)階段,典型的QoS參數(shù)如表3所示。PaaS層和SaaS層QoS保證的難點(diǎn)在第3階段(資源分配階段)。由于在云計(jì)算環(huán)境中,應(yīng)用服務(wù)提供商同底層硬件服務(wù)提供商之間可以是松耦合的,所以PaaS層和SaaS層在第3階段需要綜合考慮IaaS層的費(fèi)用、IaaS層承諾的QoS, PaaS/SaaS層服務(wù)對(duì)用戶承諾的QoS等。 云計(jì)算:體系架構(gòu)與關(guān)鍵技術(shù)(四)本文系統(tǒng)地分析和總結(jié)云計(jì)算的研究現(xiàn)狀,劃分云計(jì)算體系架構(gòu)為核心服務(wù)、服務(wù)管理、用戶訪問(wèn)接口等3個(gè)層次。圍繞低成本、高可靠、高可用、規(guī)模可伸縮等研究目標(biāo),深入全面地介紹了云計(jì)算的關(guān)鍵技術(shù)及最新研究進(jìn)展。在云計(jì)算基礎(chǔ)設(shè)施方面,介紹了云計(jì)算數(shù)據(jù)中心設(shè)計(jì)與管理及資源虛擬化技術(shù):在大規(guī)模數(shù)據(jù)處理方面,分析了海量數(shù)據(jù)處理平臺(tái)及其資源管理與調(diào)度技術(shù);在云計(jì)算服務(wù)保障方面,討論了服務(wù)質(zhì)量保證和安全與隱私保護(hù)技術(shù)。針對(duì)新型的云計(jì)算應(yīng)用和云計(jì)算存在的局限性,又探討并展望了今后的研究方向。最后,介紹了東南大學(xué)云計(jì)算平臺(tái)以及云計(jì)
為此,本節(jié)介紹PaaS層和SaaS層的資源分配策略。為了便于討論,本節(jié)中PaaS層和SaaS層統(tǒng)稱為應(yīng)用服務(wù)層。彈性服務(wù)是云計(jì)算的特性之一,為了保證服務(wù)的可用性,應(yīng)用服務(wù)層需要根據(jù)業(yè)務(wù)負(fù)載動(dòng)態(tài)申請(qǐng)或釋放IaaS層的資源,Calheiros等基于排隊(duì)論設(shè)計(jì)了負(fù)載預(yù)測(cè)模型,通過(guò)比較硬件設(shè)施工作負(fù)載、用戶請(qǐng)求負(fù)載及QoS目標(biāo),調(diào)整虛擬機(jī)的數(shù)量。由于同類IaaS層服務(wù)可能由多個(gè)服務(wù)提供商提供,應(yīng)用服務(wù)提供商需要根據(jù)QoS協(xié)定選擇合適的IaaS層服務(wù)。為此,Xiao等人設(shè)計(jì)了基于信譽(yù)的QOS部署機(jī)制,該機(jī)制綜合考慮IaaS層服務(wù)層提供商的信譽(yù)、應(yīng)用服務(wù)同用戶的SLA以及QoS的部署開銷,選擇合適的IaaS層服務(wù)。除此之外,由于Amazon EC2的Spot Instance服務(wù)可以以競(jìng)價(jià)方式提供廉價(jià)的虛擬機(jī),Andrzejak等人為應(yīng)用服務(wù)層設(shè)計(jì)了的競(jìng)價(jià)模型,使其在滿足用戶QoS需求的前提下降低硬件設(shè)施開銷。 表2 IaaS層的QoS參數(shù)定義 表3 PaaS/SaaS層的QoS參數(shù)定義 3.4.2安全與隱私保護(hù) 雖然通過(guò)QoS保證機(jī)制可以提高云計(jì)算的可靠性和可用性,但是目前實(shí)現(xiàn)高安全性的云計(jì)算環(huán)境仍面臨諸多挑戰(zhàn)。一方面,云平臺(tái)上的應(yīng)用程序(或服務(wù))同底層硬件環(huán)境間是松禍合的,沒有固定不變的安全邊界,大大增加了數(shù)據(jù)安全與隱私保護(hù)的難度。另一方面,云計(jì)算環(huán)境中的數(shù)據(jù)量十分巨大(通常都是TB甚至PB級(jí)),傳統(tǒng)安全機(jī)制在可擴(kuò)展性及性能方面難以有效滿足需求。隨著云計(jì)算的安全問(wèn)題日益突出,近年來(lái)研究者針對(duì)云計(jì)算的模型和應(yīng)用,討論了云計(jì)算安全隱患,研究了云計(jì)算環(huán)境下的數(shù)據(jù)安全與隱私保護(hù)技術(shù)。本節(jié)結(jié)合云計(jì)算核心服務(wù)的層次模型,介紹云計(jì)算環(huán)境下的數(shù)據(jù)安全與隱私保護(hù)技術(shù)的研究現(xiàn)狀。 1) IaaS層的安全 虛擬化是云計(jì)算IaaS層普遍采用的技術(shù)。該技術(shù)不僅可以實(shí)現(xiàn)資源可定制,而且能有效隔離用戶的資源。Santhanam等人討論了分布式環(huán)境下基于虛擬機(jī)技術(shù)實(shí)現(xiàn)的“沙盒”模型,以隔離用戶執(zhí)行環(huán)境。然而虛擬化平臺(tái)并不是完美的,仍然存在安全漏洞?;贏mazonEC2上的實(shí)驗(yàn),Ristenpart等人發(fā)現(xiàn)Xen虛擬化平臺(tái)存在被旁路攻擊的危險(xiǎn)。他們?cè)谠朴?jì)算中心放置若干臺(tái)虛擬機(jī),當(dāng)檢測(cè)到有一臺(tái)虛擬機(jī)和目標(biāo)虛擬機(jī)放置在同一臺(tái)主機(jī)上時(shí),便可通過(guò)操縱自己放置的虛擬機(jī)對(duì)目標(biāo)虛擬機(jī)的進(jìn)行旁路攻擊,得到目標(biāo)虛擬機(jī)的更多信息。為了避免基于Cache緩存的旁路攻擊,Raj等人提出了Cache層次敏感的內(nèi)核分配方法和基于頁(yè)染色的Cache劃分2種資源管理方法,以實(shí)現(xiàn)性能與安全隔離。 2) PaaS層的安全 PaaS層的海量數(shù)據(jù)存儲(chǔ)和處理需要防止隱私泄露問(wèn)題。Roy等人提出了一種基于MapReduce平臺(tái)的隱私保護(hù)系統(tǒng)Airavat,集成強(qiáng)訪問(wèn)控制和區(qū)分隱私,為處理關(guān)鍵數(shù)據(jù)提供安全和隱私保護(hù)。在加密數(shù)據(jù)的文本搜索方面,傳統(tǒng)的方法需要對(duì)關(guān)鍵詞進(jìn)行完全匹配,但是云計(jì)算數(shù)據(jù)量非常大,在用戶頻繁訪問(wèn)的情況下,精確匹配返回的結(jié)果會(huì)非常少,使得系統(tǒng)的可用性大幅降低,Li等人提出了基于模糊關(guān)鍵詞的搜索方法,在精確匹配失敗后,還將采取與關(guān)鍵詞近似語(yǔ)義的關(guān)鍵詞集的匹配,達(dá)到在隱私保護(hù)的前提下為用戶檢索更多匹配文件的效果。 3) SaaS層的安全 SaaS層提供了基于互聯(lián)網(wǎng)的應(yīng)用程序服務(wù),并會(huì)保存敏感數(shù)據(jù)(如企業(yè)商業(yè)信息)。因?yàn)樵品?wù)器由許多用戶共享,且云服務(wù)器和用戶不在同一個(gè)信任域里,所以需要對(duì)敏感數(shù)據(jù)建立訪問(wèn)控制機(jī)制。由于傳統(tǒng)的加密控制方式需要花費(fèi)很大的計(jì)算開銷,而且密鑰發(fā)布和細(xì)粒度的訪問(wèn)控制都不適合大規(guī)模的數(shù)據(jù)管理,Yu等人討論了基于文件屬性的訪問(wèn)控制策略,在不泄露數(shù)據(jù)內(nèi)容的前提下將與訪問(wèn)控制相關(guān)的復(fù)雜計(jì)算工作交給不可信的云服務(wù)器完成,從而達(dá)到訪問(wèn)控制的目的。 從以上研究可以看出,云計(jì)算面臨的核心安全問(wèn)題是用戶不再對(duì)數(shù)據(jù)和環(huán)境擁有完全的控制權(quán)。為了解決該問(wèn)題,云計(jì)算的部署模式被分為公有云、私有云和混合云。 公有云是以按需付費(fèi)方式向公眾提供的云計(jì)算服務(wù)(如Amazon EC2, Salesforce CRM等)。雖然公有云提供了便利的服務(wù)方式,但是由于用戶數(shù)據(jù)保存在服務(wù)提供商,存在用戶隱私泄露、數(shù)據(jù)安全得不到保證等問(wèn)題。 私有云是一個(gè)企業(yè)或組織內(nèi)部構(gòu)建的云計(jì)算系統(tǒng)。部署私有云需要企業(yè)新建私有的數(shù)據(jù)中心或改造原有數(shù)據(jù)中心。由于服務(wù)提供商和用戶同屬于一個(gè)信任域,所以數(shù)據(jù)隱私可以得到保護(hù)。受其數(shù)據(jù)中心規(guī)模的限制,私有云在服務(wù)彈性方面與公有云相比較差。 混合云結(jié)合了公有云和私有云的特點(diǎn):用戶的關(guān)鍵數(shù)據(jù)存放在私有云,以保護(hù)數(shù)據(jù)隱私;當(dāng)私有云工作負(fù)載過(guò)重時(shí),可臨時(shí)購(gòu)買公有云資源,以保證服務(wù)質(zhì)量。部署混合云需要公有云和私有云具有統(tǒng)一的接口標(biāo)準(zhǔn),以保證服務(wù)無(wú)縫遷移。 此外,工業(yè)界對(duì)云計(jì)算的安全問(wèn)題非常重視,并為云計(jì)算服務(wù)和平臺(tái)開發(fā)了若干安全機(jī)制其中Sun公司發(fā)布開源的云計(jì)算安全工具可為Amazon EC2提供安全保護(hù)。微軟公司發(fā)布基于云計(jì)算平臺(tái)Azure的安全方案,以解決虛擬化及底層硬件環(huán)境中的安全性問(wèn)題。另外,Yahoo!為Hadoop集成了Kerberos驗(yàn)證,Kerberos驗(yàn)證有助于數(shù)據(jù)隔離,使對(duì)敏感數(shù)據(jù)的訪問(wèn)與操作更為安全。 4云計(jì)算的機(jī)遇與挑戰(zhàn) 云計(jì)算的研究領(lǐng)域廣泛,并且與實(shí)際生產(chǎn)應(yīng)用緊密結(jié)合。縱觀己有的研究成果,還可從以下2個(gè)角度對(duì)云計(jì)算做深入研究:①拓展云計(jì)算的外沿,將云計(jì)算與相關(guān)應(yīng)用領(lǐng)域相結(jié)合,本節(jié)以移動(dòng)互聯(lián)網(wǎng)和科學(xué)計(jì)算為例,分析新的云計(jì)算應(yīng)用模式及尚需解決的問(wèn)題;②挖掘云計(jì)算的內(nèi)涵,討論云計(jì)算模型的局限性,本節(jié)以端到云的海量數(shù)據(jù)傳輸和大規(guī)模程序調(diào)試診斷為例,闡釋云計(jì)算的面臨的挑戰(zhàn)。 1)云計(jì)算和移動(dòng)互聯(lián)網(wǎng)的結(jié)合 云計(jì)算和移動(dòng)互聯(lián)網(wǎng)的聯(lián)系緊密,移動(dòng)互聯(lián)網(wǎng)的發(fā)展豐富了云計(jì)算的外沿。由于移動(dòng)設(shè)備的在硬件配置和接入方式上具有特殊性,所以有許多問(wèn)題值得研究。首先,移動(dòng)設(shè)備的資源是有限的。訪問(wèn)基于Web門戶的云計(jì)算服務(wù)往往需要在瀏覽器端解釋執(zhí)行腳本程序(如JavaScript, Ajax等),因此會(huì)消耗移動(dòng)設(shè)備的計(jì)算資源和能源。雖然為移動(dòng)設(shè)備定制客戶端可以減少移動(dòng)設(shè)備的資源消耗,但是移動(dòng)設(shè)備運(yùn)行平臺(tái)種類多,更新快,導(dǎo)致定制客戶端的成本相對(duì)較高。因此需要為云計(jì)算設(shè)計(jì)交互性強(qiáng)、計(jì)算量小、普適性強(qiáng)的訪問(wèn)接口。其次是網(wǎng)絡(luò)接入問(wèn)題。對(duì)于許多SaaS層服務(wù)來(lái)說(shuō),用戶對(duì)響應(yīng)時(shí)間敏感。但是,移動(dòng)網(wǎng)絡(luò)的時(shí)延比固定網(wǎng)絡(luò)高,而且容易丟失連接,導(dǎo)致SaaS層服務(wù)可用性降低。因此,需要針對(duì)移動(dòng)終端的網(wǎng)絡(luò)特性對(duì)SaaS層服務(wù)進(jìn)行優(yōu)化。 2)云計(jì)算與科學(xué)計(jì)算的結(jié)合 科學(xué)計(jì)算領(lǐng)域希望以經(jīng)濟(jì)的方式求解科學(xué)問(wèn)題,云計(jì)算可以為科學(xué)計(jì)算提供低成本的計(jì)算能力和存儲(chǔ)能力。但是,在云計(jì)算平臺(tái)上進(jìn)行科學(xué)計(jì)算面臨著效率低的問(wèn)題。雖然一些服務(wù)提供商推出了面向科學(xué)計(jì)算的IaaS層服務(wù),但是其性能和傳統(tǒng)的高性能計(jì)算機(jī)相比仍有差距。研究面向科學(xué)計(jì)算的云計(jì)算平臺(tái)首先要從IaaS層入手。IaaS層的I/O性能成為影響執(zhí)行時(shí)間的重要因素:①網(wǎng)絡(luò)時(shí)延問(wèn)題,MPI并行程序?qū)W(wǎng)絡(luò)時(shí)延比較敏感,傳統(tǒng)高性能計(jì)算集群采用InfiniBand網(wǎng)絡(luò)降低傳輸時(shí)延,但是目前虛擬機(jī)對(duì)InfiniBand的支持不夠,不能滿足低時(shí)延需求;② I/O帶寬問(wèn)題,虛擬機(jī)之間需要競(jìng)爭(zhēng)磁盤和網(wǎng)絡(luò)I/O帶寬,對(duì)于數(shù)據(jù)密集型科學(xué)計(jì)算應(yīng)用,I/O帶寬的減少會(huì)延長(zhǎng)執(zhí)行時(shí)間。其次要在PaaS層研究面向科學(xué)計(jì)算的編程模型。雖然Moretti等提出了面向數(shù)據(jù)密集型科學(xué)計(jì)算的All-Pairs編程模型,但是該模型的原型系統(tǒng)只運(yùn)行于小規(guī)模集群,并不能保證其可擴(kuò)展性。最后,對(duì)于復(fù)雜的科學(xué)工作流,要研究如何根據(jù)執(zhí)行狀態(tài)與任務(wù)需求動(dòng)態(tài)申請(qǐng)和釋放云計(jì)算資源,優(yōu)化執(zhí)行成本。 3)端到云的海量數(shù)據(jù)傳輸 云計(jì)算將海量數(shù)據(jù)在數(shù)據(jù)中心進(jìn)行集中存放,對(duì)數(shù)據(jù)密集型計(jì)算應(yīng)用提供強(qiáng)有力的支持。目前許多數(shù)據(jù)密集型計(jì)算應(yīng)用需要在端到云之間進(jìn)行大數(shù)據(jù)量的傳輸,如AMS-02實(shí)驗(yàn)每年將產(chǎn)生約170TB的數(shù)據(jù)量,需要將這些數(shù)據(jù)傳輸?shù)皆茢?shù)據(jù)中心存儲(chǔ)和處理,并將處理后的數(shù)據(jù)分發(fā)到各地研究中心進(jìn)行下一步的分析。若每年完成170TB的數(shù)據(jù)傳輸,至少需要40Mbids的網(wǎng)絡(luò)帶寬,但是這樣高的帶寬需求很難在當(dāng)前的互聯(lián)網(wǎng)中得到滿足。另外,按照Amazon云存儲(chǔ)服務(wù)的定價(jià),若每年傳輸上述數(shù)據(jù)量,則需花費(fèi)約數(shù)萬(wàn)美元,其中并不包括支付給互聯(lián)網(wǎng)服務(wù)提供商的費(fèi)用。由此可見,端到云的海量數(shù)據(jù)傳輸將耗費(fèi)大量的時(shí)間和經(jīng)濟(jì)開銷。由于網(wǎng)絡(luò)性價(jià)比的增長(zhǎng)速度遠(yuǎn)遠(yuǎn)落后于云計(jì)算技術(shù)的發(fā)展速度,目前傳輸主要通過(guò)郵寄方式將存儲(chǔ)數(shù)據(jù)的磁盤直接放入云數(shù)據(jù)中心,這種方法仍然需要相當(dāng)?shù)慕?jīng)濟(jì)開銷,并且運(yùn)輸過(guò)程容易導(dǎo)致磁盤損壞。為了支持更加高效快捷的端到云的海量數(shù)據(jù)傳輸,需要從基礎(chǔ)設(shè)施層入手研究下一代網(wǎng)絡(luò)體系結(jié)構(gòu),改變網(wǎng)絡(luò)的組織方式和運(yùn)行模式,提高網(wǎng)絡(luò)吞吐量。 4)大規(guī)模應(yīng)用的部署與調(diào)試 云計(jì)算采用虛擬化技術(shù)在物理設(shè)備和具體應(yīng)用之間加入了一層抽象,這要求原有基于底層物理系統(tǒng)的應(yīng)用必須根據(jù)虛擬化做相應(yīng)的調(diào)整才能部署到云計(jì)算環(huán)境中,從而降低了系統(tǒng)的透明性和應(yīng)用對(duì)底層系統(tǒng)的可控性。另外,云計(jì)算利用虛擬技術(shù)能夠根據(jù)應(yīng)用需求的變化彈性地調(diào)整系統(tǒng)規(guī)模,降低運(yùn)行成本。因此,對(duì)于分布式應(yīng)用,開發(fā)者必須考慮如何根據(jù)負(fù)載情況動(dòng)態(tài)分配和回收資源。但該過(guò)程很容易產(chǎn)生錯(cuò)誤,如資源泄漏、死鎖等。上述情況給大規(guī)模應(yīng)用在云計(jì)算環(huán)境中的部署帶來(lái)了巨大挑戰(zhàn)。為解決這一問(wèn)題,需要研究適應(yīng)云計(jì)算環(huán)境的調(diào)試與診斷開發(fā)工具以及新的應(yīng)用開發(fā)模型。 5東南大學(xué)云計(jì)算平臺(tái) 近年來(lái),東南大學(xué)在云計(jì)算領(lǐng)域進(jìn)行了許多有效的嘗試,也獲得了較為豐碩的研究與應(yīng)用成果。東南大學(xué)云計(jì)算平臺(tái)的一個(gè)典型應(yīng)用是AMS-02(alpha magnetic spectrometer 02)海量數(shù)據(jù)處理。 AMS-02實(shí)驗(yàn)是由諾貝爾物理學(xué)獎(jiǎng)獲得者丁肇中教授領(lǐng)導(dǎo)的由美、俄、德、法、中等巧個(gè)國(guó)家和地區(qū)共800多名科學(xué)家參加的大型國(guó)際合作項(xiàng)目,其目的是為尋找由反物質(zhì)所組成的宇宙和暗物質(zhì)的來(lái)源以及測(cè)量宇宙線的來(lái)源。AMS-02探測(cè)器于2011年5月16日搭乘美國(guó)奮進(jìn)號(hào)航天飛機(jī)升空至國(guó)際空間站,將在國(guó)際空間站上運(yùn)行10~18年,其間大量的原始數(shù)據(jù)將傳送到分別設(shè)立在瑞士CERN和中國(guó)東南大學(xué)的地面數(shù)據(jù)處理中心SOC(scientific operation center),由地面數(shù)據(jù)處理中心對(duì)其進(jìn)行傳輸、存儲(chǔ)、處理、計(jì)算和分析。 東南大學(xué)在針對(duì)AMS-02海量數(shù)據(jù)處理的前期理論工作主要集中于網(wǎng)格環(huán)境下的自適應(yīng)任務(wù)調(diào)度、分布式資源發(fā)現(xiàn)以及副本管理等方面。然而隨著AM S-02探測(cè)器的升空和運(yùn)行,AMS-02實(shí)驗(yàn)對(duì)實(shí)際處理平臺(tái)提出了更高的要求:首先,AMS-02實(shí)驗(yàn)相關(guān)的數(shù)據(jù)文件規(guī)模急劇增加,需要更大規(guī)模、更加高效的數(shù)據(jù)處理平臺(tái)的支持;其次,該平臺(tái)需要提供數(shù)據(jù)訪問(wèn)服務(wù),以滿足世界各地的科學(xué)家分析海量科學(xué)數(shù)據(jù)的需求。 為了滿足AMS-02海量數(shù)據(jù)處理應(yīng)用的需求,東南大學(xué)構(gòu)建了相應(yīng)的云計(jì)算平臺(tái)。如圖14所示,該平臺(tái)提供了IaaS, PaaS和SaaS層的服務(wù),IaaS層的基礎(chǔ)設(shè)施由3 500顆CPU內(nèi)核和容量為SOOTB的磁盤陣列構(gòu)成,提供虛擬機(jī)和物理機(jī)的按需分配(見3.1.3節(jié))。在PaaS層,數(shù)據(jù)分析處理平臺(tái)和應(yīng)用開發(fā)環(huán)境為大規(guī)模數(shù)據(jù)分析處理應(yīng)用提供編程接口。在SaaS層,以服務(wù)的形式部署云計(jì)算應(yīng)用程序,便于用戶訪問(wèn)與使用。 對(duì)于AMS-02海量數(shù)據(jù)處理應(yīng)用,東南大學(xué)云計(jì)算平臺(tái)提供了如下支持。 首先,云計(jì)算平臺(tái)可根據(jù)AMS-02實(shí)驗(yàn)的需求,為其分配獨(dú)占的計(jì)算集群,并自動(dòng)配置運(yùn)行環(huán)境(如操作系統(tǒng)、科學(xué)計(jì)算函數(shù)庫(kù)等)。利用資源隔離技術(shù),既保證AMS-02應(yīng)用不會(huì)受到其他應(yīng)用的影響,又為AMS-02海量數(shù)據(jù)處理應(yīng)用中執(zhí)行程序的更新和調(diào)試帶來(lái)便利。圖14東南大學(xué)云計(jì)算平臺(tái)的架構(gòu) 其次,世界各國(guó)物理學(xué)家可通過(guò)訪問(wèn)部署于SaaS層的AMS-02應(yīng)用服務(wù),得到所需的原始科學(xué)數(shù)據(jù)和處理分析結(jié)果,以充分實(shí)現(xiàn)數(shù)據(jù)共享和協(xié)同工作。 最后,隨著AMS-02實(shí)驗(yàn)的不斷進(jìn)行,待處理的數(shù)據(jù)量及數(shù)據(jù)處理的難度會(huì)大幅增加。此時(shí)相應(yīng)的云計(jì)算應(yīng)用開發(fā)環(huán)境將為AMS-02數(shù)據(jù)分析處理程序提供編程接口,在提供大規(guī)模計(jì)算和數(shù)據(jù)存儲(chǔ)能力的同時(shí),簡(jiǎn)化了海量數(shù)據(jù)處理的難度。 除了AMS-02實(shí)驗(yàn)之外,東南大學(xué)云計(jì)算平臺(tái)針對(duì)不同學(xué)科院系的應(yīng)用需求,還分別部署了電磁仿真、分子動(dòng)力學(xué)模擬等科學(xué)計(jì)算應(yīng)用。由于這些科學(xué)計(jì)算應(yīng)用對(duì)計(jì)算平臺(tái)的性能要求較高,因此為了優(yōu)化云計(jì)算平臺(tái)的運(yùn)行性能,同時(shí)也進(jìn)行了大量理論研究工作。 針對(duì)海量數(shù)據(jù)處理應(yīng)用中數(shù)據(jù)副本的選擇問(wèn)題,在綜合考慮副本開銷及數(shù)據(jù)可用性因素的基礎(chǔ)上提出一種基于QoS偏好感知的副本選擇策略,通過(guò)實(shí)現(xiàn)靈活可靠的副本管理機(jī)制以提高應(yīng)用的數(shù)據(jù)訪問(wèn)效率。 針對(duì)大規(guī)模數(shù)據(jù)密集型任務(wù)的調(diào)度問(wèn)題,提出了一個(gè)低開銷的全局優(yōu)化調(diào)度算法BAR。BAR能夠根據(jù)集群的網(wǎng)絡(luò)與工作負(fù)載動(dòng)態(tài)調(diào)整數(shù)據(jù)本地性,采用網(wǎng)絡(luò)流思想,并結(jié)合負(fù)載均衡策略,以獲得最小化的作業(yè)完成時(shí)間,為AMS-02等相關(guān)數(shù)據(jù)密集型任務(wù)的高效調(diào)度與執(zhí)行提供了保證。 除了針對(duì)科學(xué)計(jì)算應(yīng)用之外,東南大學(xué)在現(xiàn)有云計(jì)算平臺(tái)的基礎(chǔ)上,針對(duì)云計(jì)算環(huán)境中的若干共性問(wèn)題也進(jìn)行了相應(yīng)的研究。 在IaaS層,部署了開源云計(jì)算系統(tǒng)OpenQRM基于該系統(tǒng),研究虛擬機(jī)的放置、部署與遷移機(jī)制,完善其資源監(jiān)控策略,使云計(jì)算平臺(tái)可以快速感知資源工作負(fù)載的變化,從而提供彈性服務(wù)。此外,基于經(jīng)濟(jì)模型,探討了云計(jì)算數(shù)據(jù)中心的資源管理、能耗及服務(wù)定價(jià)之間的關(guān)系。 在PaaS層,深入分析了Hadoop平臺(tái)上的資源管理與調(diào)度機(jī)制,對(duì)多數(shù)據(jù)中心間的副本管理策略進(jìn)行了研究。在此基礎(chǔ)上,利用云計(jì)算在海量數(shù)據(jù)存儲(chǔ)與處理方面的優(yōu)勢(shì),將云計(jì)算應(yīng)用于OLAP聚集計(jì)算和大規(guī)模組合優(yōu)化問(wèn)題的求解。 在SaaS層,針對(duì)移動(dòng)社會(huì)網(wǎng)絡(luò)中位置信任安全問(wèn)題,開發(fā)設(shè)計(jì)了基于云計(jì)算的位置信任驗(yàn)證服務(wù)系統(tǒng)。該系統(tǒng)分為智能手機(jī)客戶端和云計(jì)算平臺(tái)端兩部分。其中,在智能手機(jī)客戶端,系統(tǒng)提取用戶位置屬性,并使用藍(lán)牙無(wú)線傳播技術(shù)進(jìn)行位置信任憑證收集:在云計(jì)算平臺(tái)上,基于憑證收集和驗(yàn)證算法,系統(tǒng)利用云計(jì)算彈性服務(wù)的特點(diǎn)來(lái)滿足大規(guī)模用戶的驗(yàn)證需求。 基于以上研究成果,東南大學(xué)今后還將在云計(jì)算數(shù)據(jù)中心的網(wǎng)絡(luò)優(yōu)化、云計(jì)算服務(wù)的安全隱私保護(hù)等方面開展深入研究,并進(jìn)一步構(gòu)建面向科學(xué)計(jì)算與應(yīng)用的云計(jì)算平臺(tái)。 6結(jié)束語(yǔ) 云計(jì)算作為一種新興的信息技術(shù)發(fā)展迅速。通過(guò)總結(jié)最近幾年在該領(lǐng)域的應(yīng)用與研究成果,將云計(jì)算體系架構(gòu)劃分為3個(gè)層次。綜述了體系架構(gòu)中主要關(guān)鍵技術(shù)的研究現(xiàn)狀,包括數(shù)據(jù)中心設(shè)計(jì)與管理、虛擬化、海量數(shù)據(jù)存儲(chǔ)與處理、資源管理與調(diào)度、服務(wù)質(zhì)量保證和安全與隱私保護(hù)等。同時(shí),介紹了東南大學(xué)的云計(jì)算平臺(tái)及相關(guān)研究成果??傮w來(lái)說(shuō),云計(jì)算的研究正處于發(fā)展階段,從拓展云計(jì)算應(yīng)用模式,解決內(nèi)在的局限性等角度出發(fā),圍繞可用性、可靠性、規(guī)模彈性、成本能耗等因素,仍有大量關(guān)鍵問(wèn)題需要深入研究。 |
|
來(lái)自: PLM——PDM > 《軟件架構(gòu)》