更新時間:2019年10月23日 14632瀏覽
在當今這個時代,數(shù)據(jù)早已變成了各行各業(yè)的核心資產(chǎn)。為了平衡數(shù)據(jù)處理和企業(yè)IT的維護成本,IDC行業(yè)獲得了前所未有的發(fā)展良機。中國的IDC市場,萌芽狀態(tài)要追溯到2010年以前,但是從2012年開始,就逐漸進入了高速發(fā)展期。近些年來,隨著企業(yè)數(shù)字化轉(zhuǎn)型的加速,IDC行業(yè)的發(fā)展也發(fā)生了一些結(jié)構(gòu)性的變化。這其中既有用戶需求催生巨大市場帶來的經(jīng)濟效益,也有包括云計算,網(wǎng)絡安全防護,以及高耗能等方面帶來的負面影響。
現(xiàn)在,很多新興的互聯(lián)網(wǎng)企業(yè)更青睞于將非關(guān)鍵性數(shù)據(jù)業(yè)務遷移到第三方云數(shù)據(jù)中心。這在電商行業(yè)表現(xiàn)的尤為突出。比如為了應對各類大促,云計算由于擁有算力彈性的優(yōu)勢,電商公司可以通過云服務在一天內(nèi)快速提升網(wǎng)站的訪問和處理能力,當流量回歸正常以后,則可以再將算力降低。相較于傳統(tǒng)的自建或托管型數(shù)據(jù)中心,企業(yè)不但能夠在短期內(nèi)迅速提升數(shù)據(jù)處理能力節(jié)省初期投資,而且可以按需購買服務,以節(jié)省運營維護成本。甚至對于中小型公司和初創(chuàng)公司,云計算服務已經(jīng)成為其最主要的數(shù)據(jù)解決方案。
但是對于很多對數(shù)據(jù)安全有較高要求的行業(yè)客戶來說,云計算的成本優(yōu)勢卻不足以抵消其對數(shù)據(jù)安全的顧慮。他們大多還是會選擇自建機房,或者是托管型的數(shù)據(jù)中心。
中關(guān)村軟件園科技運營中心網(wǎng)絡總監(jiān)郝曉夏認為,云計算運營模式的出現(xiàn),對IDC各方面都有一定的沖擊,比如帶寬業(yè)務、實體和虛擬空間,但作為技術(shù)人員來講,仍然會為中國互聯(lián)網(wǎng)技術(shù)的發(fā)展迭代感到欣慰。就目前來看,隨著公有云技術(shù)的不斷成熟,中小企業(yè)根據(jù)業(yè)務需要,很多已經(jīng)實現(xiàn)了IDC向云計算的遷移。這對IDC來講,會有一部分的業(yè)務流失,但就2019年數(shù)據(jù)中心行業(yè)預測報告來看,金融在IDC所占的比例為21%,2018-2019年均有2.1%與1.5%的增長,其次是政府占到15%,在2018-2019年有2.5%與1%的增長,在Colo、互聯(lián)網(wǎng)、運營商等其他行業(yè),均有不同比例的增長,通過數(shù)據(jù)來看,雖然傳統(tǒng)IDC用戶上云的現(xiàn)象已產(chǎn)生一定的規(guī)模,導致IDC市場增速放緩,但市場規(guī)模依舊平穩(wěn)。尤其對于向金融、政府等行業(yè)提供服務的IDC來講,沖擊雖然有,但不會太猛烈。
關(guān)于IDC和云服務商競合關(guān)系的話題,科智咨詢(中國IDC圈)高級分析師王若冰認為,云服務商對傳統(tǒng)IDC的托管業(yè)務會產(chǎn)生一定的沖擊。但由于IDC本身擁有數(shù)量龐大的機柜,這對于云計算公司來說,也是一種難得的資源。隨著用戶上云的加速,未來IDC和云計算公司的業(yè)務格局將呈現(xiàn)變化。
首先,隨著視頻、游戲、電商等行業(yè)的火熱,以及5G、AI等新興技術(shù)的發(fā)展,云計算的市場空間會越來越大。云服務商對IDC的需求也必然水漲船高。云計算公司除了自建機房以外,也會租用很多傳統(tǒng)IDC公司的機房,以滿足巨大的需求。換句話說,對于傳統(tǒng)IDC來說,只是租用機房的客戶從傳統(tǒng)企業(yè)轉(zhuǎn)換成了云計算公司而已。
不過和普通企業(yè)用戶不同的是,由于云服務商對于數(shù)據(jù)中心的使用門檻逐年提升,這就要求IDC服務商的運營與運維能力跟隨提升,定制化需求的大量涌現(xiàn)使IDC行業(yè)的專業(yè)化程度也逐步提高。云服務商一般以大型互聯(lián)網(wǎng)公司為主,隨著其需求量增加,越來越多的第三方IDC服務商,必須通過提供定制化機房滿足云廠商的需求。一些不具備升級潛力的老舊機房則會在競爭中處于劣勢。
最后,云服務商的冗余機柜資源將租賃給使用云產(chǎn)品的客戶,這一商業(yè)行為產(chǎn)生的交易體量目前尚未突顯,云產(chǎn)品始終是主打銷售目標,其余業(yè)務是圍繞云產(chǎn)品銷量提升而打的配合戰(zhàn)。目前來說,IDC服務商目前與云服務商保持較為良好的合作關(guān)系,長久來看,IDC服務商必須不斷提升自己的服務能力,才能滿足用戶日益增長的要求。
誠如前文所述,很多對于數(shù)據(jù)有較高安全需求的企業(yè),是目前托管型IDC的主要客戶。但是隨著技術(shù)的進步,數(shù)據(jù)中心的安全環(huán)境也日趨嚴峻,前些年由于攻擊成本的降低,導致DDos攻擊十分猛烈,而IDC運營方為了阻止此類攻擊對客戶業(yè)務的影響,不得不花費巨資進行防御。據(jù)相關(guān)調(diào)查機構(gòu)的數(shù)據(jù)顯示,全球從2017年用于網(wǎng)絡安全的費用是900億美元,這一數(shù)字到2022年將增加至1萬億美元。與此同時,美國經(jīng)濟顧問委員會的報告稱,惡意攻擊對全球經(jīng)濟造成的損失可能高達每年1090億美元,而IBM公司估計,每次攻擊造成的平均損失為386萬美元。
郝曉夏表示,前些年對于數(shù)據(jù)中心機房的網(wǎng)絡攻擊的確比較猖獗,而且由于攻擊成本太低,使得防護成本高昂,甚至是顧此失彼。但是經(jīng)過近兩年從國家層面的重視,以及數(shù)據(jù)中心行業(yè)的群策群力,目前這種情況有了很大的改善。
以我們自身的機房為例,目前采用的是入侵檢測系統(tǒng)+安全自服務平臺的形式,入侵檢測系統(tǒng)采用旁路部署模式,通過采集各出口流量的采樣比進行分析檢測;出現(xiàn)攻擊時通過入侵檢測系統(tǒng)確認,立即登錄安全自服務平臺封殺被攻擊IP。由于安全自服務平臺部署在IDC出口外,相比在出口內(nèi)使用路由黑洞封殺IP的方式要更加安全可靠,界面友好且更加迅速。同時7*24運維團隊實時監(jiān)控,可以把攻擊出現(xiàn)時的處理時間縮減到最低。
除此以外,流量清洗也是一個防范網(wǎng)絡攻擊,保障用戶業(yè)務穩(wěn)定的好方式。之前我們采用的在網(wǎng)內(nèi)部署清洗設(shè)備的方式,提前將需要該服務的客戶地址段加入清洗平臺,通過入侵檢測系統(tǒng)發(fā)現(xiàn)攻擊,流量清洗系統(tǒng)進行聯(lián)動,實現(xiàn)自動清洗。但這種方式只能確保在受到攻擊時內(nèi)網(wǎng)互訪正常,無法避免接入電路的巨大流量壓力,受到大規(guī)模攻擊時,業(yè)務仍處于不可用狀態(tài),在一定程度上,還是無法滿足安全需求。于是我們開始采用清洗注回的方式,與運營商合作,將設(shè)備部署到出口外,當發(fā)現(xiàn)DDOS攻擊流量時,開啟流量清洗設(shè)備對目標攻擊流量進行清洗,將去往被攻擊目標的流量牽引至流量清洗中心進行清洗,清洗設(shè)備對正常業(yè)務流量和惡意攻擊流量進行分離,丟棄惡意流量,保留正常流量,清洗后的業(yè)務流量被重新轉(zhuǎn)發(fā)回網(wǎng)絡,送到原有目標地址。以此實現(xiàn)在保證客戶安全的情況下,還能留住正常訪問流量的效果。
關(guān)于數(shù)據(jù)中心PUE高企的話題已經(jīng)是老生常談了。在北上廣深這樣的一線城市,數(shù)據(jù)中心密度越來越大,對所在地的電網(wǎng)已經(jīng)構(gòu)成了極大壓力。這也導致一線城市不得不出臺日趨嚴厲的限制措施,PUE從1.5到1,4,再到1.3。這充分折射出了城市管理對機房高能耗的容忍極限。但目前國內(nèi)運營超過5年以上的數(shù)據(jù)中心,PUE基本上都在2.0以上。
機房耗電的罪魁禍首主要有兩個,一個是供電轉(zhuǎn)換效率,另一個就是機房制冷。首先,數(shù)據(jù)中心建設(shè)的選址首要因素就是電力源問題。距離電力源過遠會造成供電不穩(wěn)定,損耗過大。目前來說,數(shù)據(jù)中心供電采用的都是二次轉(zhuǎn)換,也就是從發(fā)電廠出來先到UPS,再把電流輸送到機房。但是UPS這種二傳手,在能量轉(zhuǎn)換過程當中本身就會產(chǎn)生損耗。即便是現(xiàn)在最好的UPS,其最高轉(zhuǎn)換效率也僅為96%,如果滿負荷運行,其實平均也就88%左右。換句話說,如果僅算UPS對數(shù)據(jù)中心PUE的貢獻,即已經(jīng)達到1/0.88%=1.136。在沒有其他供電方式介入的情況下,想做到1.3以下的PUE根本不可能。雖然現(xiàn)在有高壓直流,但這種技術(shù)目前好像除了一些電信運營商之外,只有百度的定制數(shù)據(jù)中心有。其他的IDC很少聽到有采用這種技術(shù)的。
至于制冷,機房在工作狀態(tài)下,其發(fā)熱量恐怖至極,每年運營方都要花費巨資在空調(diào)降溫方面,否則就會出現(xiàn)宕機。所以,除了服務器的正常工作耗電外,剩下的電費大部分都被制冷系統(tǒng)消耗了。如何提高散熱效率,降低制冷系統(tǒng)的支出,是行業(yè)始終關(guān)注的話題。現(xiàn)在主要的方案是風冷,水冷,蒸發(fā)冷卻,以及比較昂貴的液冷系統(tǒng)(雖然效率更高,但是初期建設(shè)成本也不便宜)。不過一線城市的存量IDC機房既不具備張北或者貴安那樣優(yōu)良的氣候條件,也不可能傷筋動骨的斥巨資更換液冷散熱系統(tǒng)。要想滿足日趨嚴苛的PUE限制,就只能苦修內(nèi)功了。
王若冰認為,在大方向上來說,建設(shè)綠色數(shù)據(jù)中心在未來將成為IDC服務商在一線城市布局IDC業(yè)務的首選。少數(shù)IDC服務商也會把布局邊緣數(shù)據(jù)中心當做未來戰(zhàn)略的主要考量。至于舊有存量的數(shù)據(jù)中心,首先必須積極配合本地政策,包括做好節(jié)能降耗技術(shù)改造,以及平臺備案等工作。其次,傳統(tǒng)集中型數(shù)據(jù)中心還必須更多的考慮建設(shè)成本與周期,研發(fā)或嘗試應用新的IDC技術(shù)。
郝曉夏認為,挖潛控制是目前存量數(shù)據(jù)中心控制PUE的唯一途徑。以我們的機房為例,為了將PUE控制在可接受的范圍,運維團隊專門制定了相應的監(jiān)控策略。為了改善機房內(nèi)氣流組織,我們增加恒濕機,安裝了導熱風道。通過導熱風道設(shè)計,將熱通道熱風直接導流回空調(diào)進風口附近,降低局部熱點,這種方式在不增加成本的前提下,提升制冷效率比較明顯。
另一方面,我們的設(shè)備設(shè)施團隊還會根據(jù)客戶負荷變化情況及時調(diào)整空調(diào)運行參數(shù)及送風量,在保證運行環(huán)境穩(wěn)定的前提下節(jié)能降耗。并通過總結(jié)和對比等方式,分析PUE值曲線,以做到心中有數(shù),及時調(diào)整策略。
編者按:文中受訪分析師系中科智道高級分析師,對中國IDC整體市場,以及北,上,廣,深等特殊的IDC市場有深入的研究。主持了多年科智咨詢(中國IDC圈)相關(guān)研究報告的調(diào)研和撰寫工作。
文中受訪嘉賓郝曉夏女士, 高級網(wǎng)絡工程師,目前供職于中關(guān)村軟件園機房。中關(guān)村軟件園擁有多個高標準數(shù)據(jù)中心機房,現(xiàn)有客戶覆蓋全國各地,廣泛涉及政府、金融、互聯(lián)網(wǎng)等多個領(lǐng)域,致力于為廣大用戶提供IT基礎(chǔ)架構(gòu)與智慧化綜合運營服務。
微信掃碼關(guān)注
Tel :400-0311-765
Add:石家莊市高新區(qū)物聯(lián)網(wǎng)大廈一層