本帖最后由 glk17 于 2017-3-9 16:43 編輯 x86平臺家庭網(wǎng)絡(luò)中心折騰系列:【第一篇】拋磚引玉--x86 mini主機虛擬NAS,下載機,軟路由帶寬疊加7層流控家庭網(wǎng)絡(luò)中心需求分析,虛擬化一機多用實現(xiàn)方案,硬件選型,軟路由系統(tǒng)選型
【第二篇】x86平臺DSM群暉、ESXi虛擬化網(wǎng)絡(luò)性能對比 本文,未完,測試補齊中物理機跑軟路由,ESXi虛擬機跑軟路由(含網(wǎng)卡直通),DSM群暉下phpVirtualBox虛擬機跑軟路由,性能、效率對比測試
【第三篇】2017路由器、網(wǎng)絡(luò)該怎么玩——ESXi多條寬帶接入多線策略路由ESXi虛擬機網(wǎng)卡直通跑軟路由,網(wǎng)絡(luò)功能實現(xiàn)及設(shè)置參考
x86平臺軟路由的用法有很多
譬如最簡單的直接物理機做軟路由
或者跑DSM黑群暉,再跑虛擬機運行軟路由
或者跑ESXi再跑虛擬機運行軟路由
或者跑Hyper-V Server再跑虛擬機運行軟路由
等等
軟路由家用,只要性能夠用的前提下
當(dāng)然最好是功耗能多小就多小,體積能多小就多小
功耗低了發(fā)熱量小就可以用被動散熱,適合放在弱電箱等狹小空間里
能10W解決的話就不要用20W的機器,能5W解決的就不要用10W的機器
所以,本帖想探究這幾個問題:
1,物理機跑軟路由,什么樣的硬件配置能跑滿千兆NAT
2,虛擬化后虛擬機跑軟路由,什么樣的硬件配置能跑滿千兆NAT
3,虛擬化后虛擬機跑黑群暉,什么樣的硬件配置能跑滿千兆samba共享
平臺1:DELL OptiPlex 380
CPU:Intel? Pentium? Processor E5400
2M Cache, 2.70 GHz, 800 MHz FSB 雙核 45nm TDP 65W 內(nèi)存 支持 雙通道 DDR3 不支持VT-d
http://ark.intel.com/zh-cn/products/40478/Intel-Pentium-Processor-E5400-2M-Cache-2_70-GHz-800-MHz-FSB內(nèi)存:DDR3 4G *1(內(nèi)存插槽兩個)
存儲:SATA 120G SSD*1
網(wǎng)卡:BCM5721*1,Intel
平臺2:CPU:Intel? Celeron? Processor J1900
2M Cache, 2 GHz up to 2.42 GHz 4核4線程 22nm TDP 10W 內(nèi)存 支持 雙通道 最大8G DDR3 支持VT-x(不支持VT-d)
http://ark.intel.com/zh-cn/products/78867/Intel-Celeron-Processor-J1900-2M-Cache-up-to-2_42-GHz內(nèi)存:DDR3L 4G *1(內(nèi)存插槽一個)
存儲:mini SATA SSD 32G *1,eMMc4.5 32G *1(僅支持EFI啟動,暫未使用),SATA 2.5寸硬盤接口*1
網(wǎng)卡:Intel? Ethernet Controller I211-AT *4
平臺3:Intel? Celeron? Processor 3215U
2M Cache, 1.70 GHz 2核2線程 14nm TDP 15W(支持TDP-down 10W) 內(nèi)存 支持 雙通道 最大16G DDR3L 支持VT-x和VT-d
http://ark.intel.com/products/84810/Intel-Celeron-Processor-3215U-2M-Cache-1_70-GHz內(nèi)存:DDR3L 8G *1(內(nèi)存插槽一個)
存儲:mSATA SSD 24G *1,SATA 硬盤接口*1(含數(shù)據(jù)、供電二合一線)
網(wǎng)卡:Intel? Ethernet Controller I211-AT *4
測試環(huán)境:PC1: CLEVO W150ER
Windows 10 Pro x64
I5 3320M/8G DDR3 1600MHz/GT650M 1G DDR5/128G PM830/Realtek PCIe GBE Family Controller/BCM94360HMB
PC2: FUJITSU FMVA15MJ
Windows 7 Ultimate x64
I3 3110M/4G DDR3 1600MHz/20G SSD/Realtek PCIe GBE Family Controller/Atheros AR946X
IxChariot Console 6.70
IxChariot Endpoint 7.10
Ultra_High_Performance_Throughput.scr
LAN<->LAN:PC1->PC2 1 pair
PC1->PC2 10 pair
PC1<-PC2 1 pair
PC1<-PC2 10 pair
平臺2 物理機 WAN<->LAN:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
平臺2 ESXi6.5a WAN虛擬網(wǎng)卡<->LAN虛擬網(wǎng)卡:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
平臺3 物理機 WAN<->LAN:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
平臺3 ESXi6.5a WAN虛擬網(wǎng)卡<->LAN虛擬網(wǎng)卡:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
平臺3 ESXi6.5a WAN直通物理網(wǎng)卡<->LAN直通物理網(wǎng)卡:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
數(shù)據(jù)匯總:注:前臺CPU占用率為iKuai WEB界面系統(tǒng)狀態(tài)顯示的數(shù)值曲線
因為顯示的不是瞬時CPU占用率,而是某段時間內(nèi)的平均CPU占用率,以及顯示刷新率等等原因
顯示的值本身只能作為一個參考,這里取值的話也只能大概的選取某一點作為結(jié)果,可能會有一定誤差
從上圖可以看出:
1,雖然是跑TCP大包的情況,顯然CPU還有足夠的余量(這也是讓它跑ESXi兼任其他功能的理論依據(jù))
但跑滿千兆3215U這臺只用了大概15%以內(nèi)的CPU,J1900用了30%左右的CPU
(這個可能是iKuai對J1900 支持和和優(yōu)化不足的問題,后續(xù)可能會跑其他軟路由譬如碧海威、LEDE、ROS等來驗證)
2,ESXi下,虛擬網(wǎng)卡和網(wǎng)卡直通對于CPU的占用,差別非常明顯
如果要跑ESXi一機多用,顯然應(yīng)該盡量節(jié)省CPU留給其他應(yīng)用,所以CPU是否支持VT-d硬件直通的意義在這里