以下七部分知識中,各有若干典型問題。針對其中部分問題,社區中的高手們給出了詳細的解答,對照學習,不但問題迎刃而解,其他問題也可以觸類旁通。
1 資料庫與虛擬化的關係
典型問題:
Q1:vmware 對 oracle rac是否有好的支持?
Q2:VMware 平臺搭建的網絡虛擬化環境,適合oracle rac環境嗎?
Q3:vmware虛擬化後,能把以前的資料庫遷移進來嗎?
Q4:VMware共享存儲問題?
知識點:
這類問題應該分為兩個方面來看。
第一,就功能層面而言。ORACLE RAC完全能夠部署於虛擬化平臺之上。心跳網和業務網可以通過網卡綁定不同VLAN的埠組實現。共享存儲可以通過RDM或者是ISCSI方式實現。針對虛擬化環境上的RAC也會有一系列優化配置,例如:
1 將內存預留容量設置為與資料庫內存(SGA+PGA)相同的大小。
2 使用大內存頁。(默認)
3 啟用處理器的超線程功能。
4 使用 Oracle 自動存儲管理 (ASM)。
5 使用 RDM 映射。
6 使用 VMXNET3系列半虛擬化網絡適配器。
7 管理網絡和業務網絡分離。
第二,就性能層面而言。需要根據應用負載及並發量來看。小的應用,可以搬上來運行著看。大的應用建議不要搬上來。如果資料庫本身的負載很高,並發量很大,還是不建議把資料庫搬到虛擬化上來。物理機器都吃不消還非得搬到虛擬化上,性能肯定會有問題。實在想遷的話建議一些小的資料庫遷移上來。如果僅僅是考慮DB的靈活性,不妨試試ORACELE11G的Server Pool特性或者是ORACLE 12C的PDB特性。
2 虛擬化網絡相關配置上如何優化配置
典型問題:
Q1:vmware 在做網絡虛擬化時,如何規劃?有哪些注意事項?
Q2:埠組以及網卡的參數有沒有最佳實踐?
Q3:VMOTION FT等網絡如何規劃?網口bond時物理交換機如何配置?
Q4:網絡虛擬化的過程需要特別注意什麼細節問題?
Q5:mware桌面虛擬化環境網絡如何規劃?
問題解答及知識點:
A1:
從規劃上來講,需要注意以下幾個部分:
1 網絡高可用。包括網卡、物理節點、物理交換機等資源的冗餘交叉設計,保證任何單點故障都不會影響業務功能。這裡面涉及到數目的搭配,鏈路設計,策略選擇等。
2 管理網絡和業務網絡隔離,業務網絡再通過埠組隔離。業務網絡用分布式交換機,管理網絡用標準式交換機。合理評估管理和業務的帶寬設置。
3 交換機、埠組、網卡上的參數配置及策略選擇。
就配置細節上講,需要注意以下內容的配置優化:
1 交換機上開TRUNK模式。
2 網卡無論怎麼綁定,交換機上都不需要做特殊捆綁。
3 網卡負載均衡模式選擇埠路由方式,雖然不是絕對的負載均衡,但是是相對安全可靠的綁定方式。
4 安全模式沒有特殊要求保持Reject。
5 選擇合適的MTU,尤其對於資料庫應用。
A2:
從設計上來說.要做到虛擬可用.物理冗餘。虛擬可用就是虛擬層面.可以提供給虛擬層以上的Guest OS或應用網路連通性物理冗餘就是在物理層面要避免單一物理連路斷開後.引起上層的網絡不可連通.
一、物理層面:
原則:連路的冗餘:包括線路冗餘,板卡冗餘,晶片冗餘.
從VC管理上.我們可以使用低速率的網卡.比如主板自帶的網卡.為了保證冗餘性.可以與PCI網卡做冗餘.
4/5的高速率卡.我們要用做真正的生產業務.比如NFS的網絡連接.用於VM存儲和關鍵業務的保護機制的使用.(vmtotion或FT等)
這樣.我們在現有的設備中.就做到了管理網絡的冗餘(使用不同晶片低速網卡),生產網絡冗餘(使用不同PCI上高速網卡.)
二、虛擬層面:
原則:網絡可達.速率最大化
管理網絡使用物理網卡做冗餘vmnic0/2,在使用上管理網絡不會有太多的數據流量.可以選擇網卡的綁定類型為主備(active-standby)模式就可以.
VMkernel網絡.這個虛似網絡是很重要的網絡.在做FT功能和虛機的VMOTION的時候很關鍵.會最小程度影響在線業務.可以使用AS模式或IP-HASH模式.Customer Network.這裡是雖然用於了兩個不同板卡上的1G網卡. 但從業務情況上來看.1G網絡會成生VM用於生產環境的瓶頸.這個地方的設計是不合理的.
如果是在現有的情況下設計.我們可以做以下改進
1.可以再配兩塊10G網卡做物理冗餘.來承載業務網流量.
2.把vmkernel網絡和Customer network都合在一起,然後使用.
3.退而求其次,我們可以把Customer Network和vmkernel物理網卡交換.這種場景用於VMOTION不常使用,FT功能開啟數量極少.
在VSS或VDS中.對物理網卡的綁定有多種.但常用的有主備模式.和IP HASH模式(交換機支持並要做一定的設置).
3 關於VLAN
典型問題:
Q1:VMware ESX/ESXi網絡中vlan實現方式有哪些?請詳細描述及應用場景?
Q2:vmware虛擬網絡埠組中關於邏輯VLAN是如何與物理背板交換機映射的?
Q3:VMWARE 虛擬化的VLAN的使用建議?
Q4:vmware網絡虛擬化實現的原理是什麼,可以具體解釋一下嗎?
問題解答及知識點:
A1:
不管是在虛擬化環境還是在物理網絡環境,VLAN都是必不可少的。它可以實現網絡隔離,也就是根據VLAN區分出不同的網段。交換機上的安全規則也是基於VLAN來區分的。如果不用VLAN,那麼網絡就無法實現邏輯隔離。比如你的辦公業務和你的生產業務,比如說你的資料庫網關和APP網段,比如說你的外聯網段和你的網際網路段等等。
具體操作,物理交換機上打的實實在在的VLAN標籤,並且配置成TRUNK模式。網卡連接到物理交換機上。把物理網卡添加到虛擬交換機裡面,然後創建不同的埠組,並且把埠組的VLAN標籤按照交換機允許通過的VLAN打上Vlan號。虛擬機的網卡捆綁到某個埠組上,實際的網絡流量就會通過物理網卡、交換機等出去。雖然虛擬機網絡劃分為不同的網段,來自不同的埠組配置,但是都是通過同樣的物理網卡把數據包送到網絡交換機實現網絡交換。
A2:
vmware虛擬機交換機支持csico發現協議cdp,通過在物理交換機上配置為trunk模式,vmware是虛擬交換機上就能發現vlan標籤,當然就識別了。
搞的方式:
1 vmware主機上聯交換起trunk,vmware本身支持cisco發現協議,可以發現相關vlan id,在vmware虛擬交換機上配置相應的vlan id即可。
2 傻瓜式使用方法,就是上聯交換機就一個vlan,下連主機也不用考慮vlan情況,插上就那個段用就行了。
A3:
VLAN是網絡隔離,廣播包只在同一個VLAN內,在二層上, 不同VLAN無法通信。
在二層加入了VLAN TAG.是和完整的二層傳輸幀是一樣的.和交換機上配置了VLAN的感覺是一樣一樣的。
4 虛擬化平臺的高可用以及資源調度
典型問題:
Q1:VMware的虛擬化平臺網絡可以做到類似F5的負載均衡嗎?
Q2:vsphere FT的網絡要求?
Q3:vmware容災體系設計?
Q4:VMware網絡虛擬化平臺的高可用性如何保證?
Q5:VM虛擬化在系統層面及物理層面的安全性如何保證?也需要雙機熱備麼?
Q6:vmware drs開啟問題?
問題解答及知識點:
A1:
對於計算節點高可用來講,除了在資源數量上要保證其冗餘性之外,策略設置也非常重要。可以參考以下幾個點:
1 Admission Control Policy:對於生產環境來講,一般認為選擇(Host Failure the cluster tolerates =1)比較合適,當然如果你的資源非常空閒,可以適當調大。
2 對於每一臺物理機上的虛擬機根據其重要程度不同,設置其啟動的優先級(高中低)。
3 當一臺物理機上的虛擬機遠超過集群當中的物理機數量時,可以考慮設置虛擬機HA互斥分離規則。
4 生產環境當中儘量把DRS的策略設置的不要太激進。尤其是前段具有負載均衡設備的時候建議把DRS打成建議模式。
對於存儲來講,必須保證集群內所有節點看到的外部存儲視圖是一樣的,完全共享的,才能很好保證其HA及DRS功能。另外說到存儲,有以下幾個點:
1 卷屬性裡面,把Storage IO Control 選項Disable。不建議vwmare層幹預底層IO,反而有尤其性能故障的風險。
2 將卷的多路勁策略設置為(Round Robin)。
A2:
對於DRS來講,建議,可以採用半自動化,激進的情況下可以全自動下閥值設置為保守,先觀察一段時間看看。
A3:
對於FT,由於FT是通過vLockstep技術確保虛擬機處於同步狀態,因此帶寬最好比較大,最低1Gb/s,最好用10Gb/s,並且做網卡綁定;
A4:
VMware提供了VMware HA和FT兩種高可用,但只能做到esxi主機級別的故障監測和恢復。一般會從應用級別上來做高可用,根據不同的業務角色,使用相應的群集或負載均衡,對於後端資料庫角色,一般會部署在物理機上,如果非要在虛擬機上可以考慮veritas公司的infoscale系列中的群集軟體(原vcs),可以與VMware的vmotion和其他管理手段有聯動,也可以不需要裸設備等支持來避免腦裂,還支持不同優先級的應用按指定順序啟停。同類群集基本只能做到基礎的功能。
5 關於虛擬化資源遷移
典型問題:
Q1:關於遷移exchange郵件伺服器?
Q2:如何將VMWARE配置好的環境,完整遷移到物理機器,不用重做系統與配置?
Q3: vmware在做p2v遷移配置中,如何提高遷移的成功率?
Q4: VMWARE 跨數據中心在線遷移解決方案?
Q5: 雲環境下的vmware虛擬機遷移問題?
知識點:
對於V2P——
通過VMWARE轉換工具,將物理機器應用環境轉成VMWARE鏡像,導入到ESXI裡。就不知,經過幾年,VMWARE的研發工程g師,有沒有開發出類似工具,將在虛擬機配置好的,測試好的應用業務環境,遷移到物理機器上面,其實,個人覺得這個也是有前景的。因為,工程師出于謹慎,為了不破壞機器環境,會習慣在虛擬機配好,測試好應用環境後,才在物理機器搭建環境,但有時,不想再花時間,重新配置一次,測試一次環境,就會傾向於將應用環境從虛擬機遷移到物理機器。遷移完,只需改一下IP就行。CPU ,內存,主機設置也不需再配置。
對於P2V——
參考converter來做P2V.
1.網絡要通信好
2.物理機的OS要啟動.一般物理機都是跑業務的.比如DB之類的.要停掉業務.使用使系統處於基本靜止的狀態去做轉化.
對於Vmotion以及跨地域的Vmotion——
跨數據中心在線遷移是個大的解決方案,要想實現在線遷移,基礎架構當中以下幾點是需要要考慮的:
1 網絡上要實現2層打通,否則沒法Vmotion到災備中心。
2 存儲是否要實現跨數據中心共享。否則VMDK很難無縫熱遷移。
3 上層的網絡架構要能正確實現引流,否則機器遷移過去了,客戶端訪問引不過去。
以上每一件事情都是個巨大的工程,牽涉到各個方面的集成配置和科學設計。
6 關於虛擬機資源性能優化
典型問題:
Q1:如何評估一臺vmware虛擬機的性能?
Q2:虛擬化資源如何合理分配?
Q3:如何根據不同業務需求,規劃分配一臺vmware虛擬機??
Q4: 在現實的環境上,大多數都很關心伺服器的性能,在使用虛擬機的過程中如何保證虛擬的系統性能達到真實物理機的性能??
知識點:
關於性能評估——
我們一般採用壓測對比方式。測試網絡和IO都會有很多開源的工具(iperf,iometer等等),和測試一般Linux系統沒什麼區別,只不過需要調整虛擬機的各種CPU、內存設置策略對比著測試看。如果要部署應用的話,還得需要依靠應用的壓力測試來看。要不然就根據自己的業務需求開發集成一套自己的測試工具。
關於規劃使用——
1、提前評估應用的資源使用量以及一段時間內擴容的量,否則兩眼一抹黑,客戶要多少就給多少,很容易不夠;
2、統計應用已用資源使用量,儘量不超配太多;
3、看看是否有對虛擬機做了資源預留,是否有必要,這個很容易浪費空閒資源;
關於資源配置——
這個過程大致會分為:1 根據合適的模板部署虛擬機。2 分配合理的CPU、內存、網卡資源。3 根據具體應用特點調整合理的參數設置。
在模板這塊兒,可以根據自己的應用特點部署一個相對通用的基礎模板,比如說Linux6.6 + Weblogic。可以把中間件以及作業系統的通用參數設置好部署成模板,當然這個也可以通過後臺腳本的方式將其部署為動態模板組合方式。在硬資源的分配方面完全是要靠對應用的了解和運維經驗了。沒法兒固定。在後期模板無法解決的參數調整方面,可以根據具體環境參數修改虛擬機的某幾個位置上的參數,同樣可以實現腳本化。用Python或是Expect很容易實現交互式批量任務。
關於科學計算——
資料庫伺服器處理能力分析,根據工程設計規範中的主機處理能力公式:
主機處理能力(TPMC)按下列公式計算:
P──主機處理能力,單位為每分鐘處理的交易量(TPMC); ──預測近期年的日均交易量,單位為筆,取日均交易量的1.5倍; ──忙日集中係數,一般取2~4,取4; ──忙時集中係數,一般取0.2~0.25,取0.25; K1──平均交易複雜度,一般取4~10,取10; J1──主機處理能力保留係數,取0.7。
7 與平臺技術選型相關
典型問題:
Q1:vmware現在這麼貴前景如何?
Q2:VMWare虛擬化平臺與FasionComputer虛擬化之間各自的優缺點是什麼?
Q3:vsan和當前炒的比較火熱的超融合區別?
Q4:IBM+VMware虛擬化實施過程比微軟、華為、思科等虛擬化構建上有哪些優勢?
知識點:
A1:
產品的比較還得自己親自去體驗,可以提供幾個建議的比較方向:
1 從產品功能點上來講,其實很多IAAS廠商的產品基本沒有大的差異。
2 從產品的性能上來講,幾個產品的差異就會很明顯的顯現出來。比如說IO的性能,計算資源的性能,備份速度的差異等等。具體數字還得自己去比較。
3 從產品功能的穩定性上來講,也會有很大差異,有的產品是經歷了各種複雜網絡及存儲環境考驗,修復了各種BUG才走到今天的成熟產品。有的產品可能經歷的考驗還比較少,在面對複雜網絡環境和存儲環境的時候不免會出現一些詭異的事情。需要反覆測試,在不同的環境反覆測試。
4 從產品的兼容性和擴展性上來講,要看其對相關環境資源的兼容性如何,接口如何等。
A2:
就虛擬化具體POC測試的細節,以下幾個細節測試值得注意:
1 複雜網絡環境下的Vmotion、HA、DRS功能測試。
2 內存復用功能的反覆壓力測試。
3 虛擬機的性能測試。
4 備份恢復功能和性能的測試。
相信做完以上測試,會有一個清晰的結論。
A3:
其實個人感覺超融合本身會包含類似VSAN這樣的軟體定義存儲技術。每一家的超融合產品都會有計算虛擬化、存儲軟體定義、網絡虛擬化等等這方面的東西。但是就存儲的軟體定義而言,各家會有一些區別:
1 有的可以在計算節點IO下沉之前做到數據的壓縮。
2 有的可以直接用閃盤做緩存。
3 有的利用infiniband可以實現系統內的超高帶寬,尤其適合資料庫。
4 有的在存儲側實現數據複製是以塊兒為單位的,有的是對象存儲複製。
5 有的是把存儲的軟體層做到每一個節點的系統層,有的需要依賴單獨的虛擬機。
總之各有各的亮點。VSAN目前是被集成到了EMC的超融合產品VXrail裡面了,而且有所改進。