<address id="drvvf"><nobr id="drvvf"><meter id="drvvf"></meter></nobr></address>

                  <address id="drvvf"><nobr id="drvvf"><meter id="drvvf"></meter></nobr></address>
                  <form id="drvvf"><nobr id="drvvf"><meter id="drvvf"></meter></nobr></form>

                    孫慧永:新一代數據中心布線技術發展

                    今天演講主要分為三大部分:
                    第一部分是數據中心傳輸介質的發展。
                    第二,IDC布線應用技術發展。
                    第三,IDC布線相關案例。
                    我們說布線系統是IDC網絡里面的神經,掌握著所有數據傳輸的載體。我們布線系統主要是連接IDC里面的相關服務器、存儲和Servers,通常采用光纖、統攬來產生連接系統。
                    網絡技術的發展與介質技術的發展是同步進行的,支撐著網絡高一等級的傳輸發展。最初很多是采用OM1或者OM2來做的,目前來講,IDC建設當中更多會采用10G作為主干,我們做了很多類似的機房,用的都是PC服務器。PC服務器網絡網絡短還是采用統攬。進一步演進包括布線技術的進一步發展,很多都是采用40G和100G做傳輸,主要是多模光纖。
                    大家可以看看對于布線行業里面相關的國際標準,和北美、歐洲的相關標準,數據中心對介質是有定義的。我們講數據中心的進一步發展,比較重要的角色是多模光纖,在光纖里面占了80%的成分。
                    目前已經有部分開始采用OM光纖,綠色的條狀,距離都是不一樣的,OM2和OM3比較占有優勢,采用激光傳輸。
                    我們剛才提到的單模光纖,我們可以看一個圖,在下一代網絡,40G的傳輸應用上面看,首先看成本的比較。往往某一種技術不是技術先進得到的應用越來廣泛,往往是性價比越高的時候,應用會更加廣泛一些。我們可以看到成本的顯示,如果在40G的傳輸狀態下,單模光纖的整體成本大概是多模光纖的3倍,所以下一代網絡多模光纖會越來越多的產生應用。
                    我們再看100G狀況下的圖。單模和多模的成本比較會更加的明顯,多模只有1/10的單模成本,當然包括網絡設備,布線成本。多模整個成本會非常低,所以下一代網絡的多模布線系統會越來越得到廣泛的應用。
                    可能有一些在座的朋友認為40G、100G的問題,現在談還時為尚早。我們有一個美國第三方機構,2011年開始有很多用戶采用40G的部分,當然,大規模的應用可能會在2015年以后。作為網絡的布線系統,部署時間要支撐至少10-15年,這個問題跟剛才ABB產生的問題是一樣的,布線不可能那么高頻率的更換,所以布線系統要比現有實際應用更加先進一些,要具備一定的超前性,才能滿足網絡支撐這么久的發展。
                    接下來給大家講講在IDC的布線系統里有什么樣的產品和技術在發展。
                    對下一代數據中心的布線技術來說,有四個方面是非常關鍵的。今天早上聽到很多云計算部分的介紹,從介質層面,從布線系統層面同樣也面臨著這樣的問題、綠色、高效、高可靠、高可管理性,是對數據中心的要求,布線系統也有相應的解決方案。
                    首先,我們來看綠色,大家都知道在數據中心里面,能耗占有最大比重的就是制冷,可能會占有30-50%的能源消耗。布線是不會產生能耗的,我們從布線系統來講,更多的是關注把冷卻的利用率來思考問題。
                    我們來比較一下光纖和銅纜在傳輸帶寬時候,會產生的端口能耗。紅色的是10G銅纜的傳輸技術,光纖這部分是SFP的技術,每個端口是1.5瓦左右,如果從節能角度講,光纖的應用是非常有優勢的。
                    從我們的布線通道來講,目前來講還有一部分,很多老的機房,我們看到是從地板下走的弱電電纜??梢钥催@個圖,整個地板的銅纜,這么大的空間占用率,如果空調在地板下送風的話,會產生很多的阻礙,所以從這個方面來講,光纖在數據中心的應用也是比較好的發展趨勢。除了帶寬以外,對綠色也做了部分貢獻。
                    如果還是采用銅纜,因為很多PC服務器都是采用銅纜的方式來傳輸的,如果比較單位流量的能耗情況,如果采用10G和1000G,如果1G的端口和10G的端口產生同樣流量的話,10G的消耗能源只有1G的1/4。新一代的數據中心來講,我們更建議用戶采用上走線的方式來做,這樣有利于空調制冷更加通常一些。
                    如果從布線的路由來思考能源的節約,可以節約3-5%的電,是比較可觀的數字。
                    早上我們聽到了有嘉賓提到機柜的部分,作為布線的廠家,在機柜里面也有相應的措施。從目前來講,更多的標準是采用冷熱通道分割的方法,可以對能耗起到很大的作用,把熱通道和冷通道進行隔離。
                    采用垂直排風系統的機柜,熱空氣直接從上面抽,就是冷通道,把熱和冷通道隔開。我們可以看計算機模擬的分析溫度,左邊這個是冷熱通道隔離的時候,在處理不當的情況下,溫度有過熱的現象。如果采用絕對隔離垂直排風的機柜,空間就是冷通道,這樣對能源,對服務器,都會起到比較好的作用。如果做得好,可以節約空調制冷的20-25%,這是很大的改善。
                    數據中心除了綠色以外,還有高效,體現在什么地方?首先數據中心部署速度要快,新一代的數據中心都會采用預留光纖的技術。根據統計,同等條件下相比統計熔纖方式預連接系統可以節約80%的部署時間。
                    大家可以看到這樣這個圖,采用高密度的連接器,布線系統的密度會越來越高,大部分會采用MTP的連接器,比傳統的銅纜傳播速度還要快。
                    采用這種方式來支持數據中心的主干來講有它的道路,在下一代網絡40G/100G的時候會采用這種連接器,才能支持下一代40G/100G的網絡。
                    在一個MTP頭里面,組成4G機的傳輸通道,才能負荷40G/100G的網絡(PPT)。
                    IDC布線的高效,除了這塊之外,還要考慮升級,不希望經常變動,當網絡升級的時候,采用這樣的方式可以很快的升級到40G/100G,可以支持下一代的40G/100G的網絡。
                    從銅纜來講,剛才也提到很多的PC服務器的端口還是采用銅纜,我們在歐洲的話,很多用戶會采用這樣的方式,歐洲的人工成本會貴一些,在中國目前還是采用現場打線的方式來做。作為一個高效的IDC的部署,同時也是可以考慮這種銅纜的系統。
                    新一代數據中心的網絡規模越來越大,可靠性也面臨著非常大的問題。以羅森伯格為代表的布線行業里面,對IDC方面也做了很多新的改善和嘗試。大家都知道IDC管理的核心,主要是跳線上面,日常的管理和維護都是在跳線上面。管理跳線的時候,有的時候會產生一些問題。新一代的數據中心可以推出彎曲不敏感的光纖,半徑7.5mm,變化可能只有零點零幾。對于整個系統可靠性的考量,也是可以提升下一代網絡可能性非常重要的因素。
                    主干系統剛才也提到,在運輸、安裝、測試的過程當中,都不會對它的停止產生任何問題,大大提高了IDC建設過程當中的可靠性。這個圖是采用預連接光纜,兩端是保護的管子。
                    細節方面可以看到,以羅森伯格公司來說,每個端口都用防塵蓋,時間長了也不容易腐蝕,從可靠性的角度上講也是做出了一定的貢獻。
                    下一代網絡,數據中心規模越大的時候,管理也是比較頭疼的問題。新一代網絡可以采用軟件化的方式管理布線系統,可以對現有的系統,把數據導入里面去,進行可視化的管理。
                    每個機柜的端口的狀況和調減的狀況都可以輸進去,如果部署的硬件是采用羅森伯格電子配件的時候,你可以不買我的硬件,可以采用現有的普通軟件來管理,當要升級的時候,就可以直接升級到智能配件系統,這樣數據庫就可以不用重新維護了,以后可以考慮這些方式。
                    因為時間非常的有限,我可能講得比較快一些。下面跟大家分享羅森伯格做的實際案例。
                    羅森伯格是一個德國的企業,1995年的時候在歐洲就有數據中心這個概念,國內還沒有這個概念,下來舉一些例子給大家看一下。
                    這個LOGO大家不會陌生,是中石油的數據中心,整個大廈是1000多個機柜的規模,布線系統采用的是羅森伯格的布線系統。
                    這是我們特殊的產品,可以直接裝到橋架上面,當你設備沒有到位的時候,我可以把這個線布好,當設備到位的時候,可以直接把線放到機柜里面就可以了,這樣對整體規劃有比較大的幫助。這是一個列頭和配線柜的部分。
                    中國建設銀行,北京和上??傂袛祿行睦锩妫艽笠徊糠侄际遣捎昧_森伯格的系統,大的銀行都采用大型的服務器,每年都會有擴容的需求。
                    這是一些IBM服務器內部的結構,IBM公司跟羅森伯格在歐洲簽了全球戰略合作伙伴協議,所以IBM采用了羅森伯格相關的配件產品。
                    這是工商銀行上海數據中心,也是采用了類似于建行的設備。
                    這是SAM導向器。
                    這是建行的災備中心。
                    這是新浪在廣州、北京、天津三地的數據中心。在互聯網的企業,很多都是采用PC服務器的機構。
                    這是百度北京數據中心,可以簡單看一下。
                    這是主配件區域,一個是正面,一個是背后。
                    這是太平人壽的數據中心。
                    這是主配線區和設備配線區域。
                    中國科技館就在鳥巢旁邊,中國科技館也有一個數據中心,這個數據心也是羅森伯格在2009年下半年完成的項目。
                    還有省級的銀行數據中心,大家可以做一些參考。
                    羅森伯格是一個歐洲的企業,參與了很多國際標準,特別是歐洲和ISO的標準,在數據中心里有15年的布線經驗。我們可以給客戶提供布線系統的方案和前期咨詢。
                    在中國,北京和上海各有一個研發中心,和德國總部時刻保持著聯系,我們可以給客戶提供定制化的服務,如果大家有需要的時候,可以和羅森伯格取得聯系,我們會給大家比較專業的服務。
                    時間有限,今天就講到這里,謝謝大家!
                    責任編輯:Mary

                    国产做无码视频在线观看_国产成人精选视频在线观看_打桩机和他宝贝124是哪一对_国产三级欧美

                        <address id="drvvf"><nobr id="drvvf"><meter id="drvvf"></meter></nobr></address>

                                    <address id="drvvf"><nobr id="drvvf"><meter id="drvvf"></meter></nobr></address>
                                    <form id="drvvf"><nobr id="drvvf"><meter id="drvvf"></meter></nobr></form>
                                      >