分享

x86平台DSM群晖、ESXi虚拟化网络性能对比

 pcnewage 2017-11-30
 本帖最后由 glk17 于 2017-3-9 16:43 编辑

x86平台家庭网络中心折腾系列:
【第一篇】抛砖引玉--x86 mini主机虚拟NAS,下载机,软路由带宽叠加7层流控
家庭网络中心需求分析,虚拟化一机多用实现方案,硬件选型,软路由系统选型
【第二篇】x86平台DSM群晖、ESXi虚拟化网络性能对比   本文,未完,测试补齐中
物理机跑软路由,ESXi虚拟机跑软路由(含网卡直通),DSM群晖下phpVirtualBox虚拟机跑软路由,性能、效率对比测试
【第三篇】2017路由器、网络该怎么玩——ESXi多条宽带接入多线策略路由
ESXi虚拟机网卡直通跑软路由,网络功能实现及设置参考


x86平台软路由的用法有很多
譬如最简单的直接物理机做软路由
或者跑DSM黑群晖,再跑虚拟机运行软路由
或者跑ESXi再跑虚拟机运行软路由
或者跑Hyper-V Server再跑虚拟机运行软路由
等等

软路由家用,只要性能够用的前提下
当然最好是功耗能多小就多小,体积能多小就多小
功耗低了发热量小就可以用被动散热,适合放在弱电箱等狭小空间里
能10W解决的话就不要用20W的机器,能5W解决的就不要用10W的机器

所以,本帖想探究这几个问题:
1,物理机跑软路由,什么样的硬件配置能跑满千兆NAT
2,虚拟化后虚拟机跑软路由,什么样的硬件配置能跑满千兆NAT
3,虚拟化后虚拟机跑黑群晖,什么样的硬件配置能跑满千兆samba共享

平台1:
DELL OptiPlex 380
CPU:Intel® Pentium® Processor E5400
2M Cache, 2.70 GHz, 800 MHz FSB 双核 45nm TDP 65W 内存 支持 双通道  DDR3 不支持VT-d
http://ark.intel.com/zh-cn/products/40478/Intel-Pentium-Processor-E5400-2M-Cache-2_70-GHz-800-MHz-FSB
内存:DDR3 4G *1(内存插槽两个)
存储:SATA 120G SSD*1
网卡:BCM5721*1,Intel

平台2:
CPU:Intel® Celeron® Processor J1900
2M Cache, 2 GHz up to 2.42 GHz 4核4线程 22nm TDP 10W 内存 支持 双通道 最大8G DDR3 支持VT-x(不支持VT-d)
http://ark.intel.com/zh-cn/products/78867/Intel-Celeron-Processor-J1900-2M-Cache-up-to-2_42-GHz
内存:DDR3L 4G *1(内存插槽一个)
存储:mini SATA SSD 32G *1,eMMc4.5 32G *1(仅支持EFI启动,暂未使用),SATA 2.5寸硬盘接口*1
网卡:Intel® Ethernet Controller I211-AT *4

平台3:
Intel® Celeron® Processor 3215U
2M Cache, 1.70 GHz 2核2线程 14nm TDP 15W(支持TDP-down 10W) 内存 支持 双通道 最大16G DDR3L 支持VT-x和VT-d
http://ark.intel.com/products/84810/Intel-Celeron-Processor-3215U-2M-Cache-1_70-GHz
内存:DDR3L 8G *1(内存插槽一个)
存储:mSATA SSD 24G *1,SATA 硬盘接口*1(含数据、供电二合一线)
网卡:Intel® Ethernet Controller I211-AT *4

测试环境:
PC1: CLEVO W150ER
         Windows 10 Pro x64
         I5 3320M/8G DDR3 1600MHz/GT650M 1G DDR5/128G PM830/Realtek PCIe GBE Family Controller/BCM94360HMB
PC2: FUJITSU FMVA15MJ
         Windows 7 Ultimate x64
         I3 3110M/4G DDR3 1600MHz/20G SSD/Realtek PCIe GBE Family Controller/Atheros AR946X

IxChariot Console 6.70
IxChariot Endpoint 7.10
Ultra_High_Performance_Throughput.scr

LAN<->LAN:
PC1->PC2 1 pair

PC1->PC2 10 pair

PC1<-PC2 1 pair

PC1<-PC2 10 pair



平台2  物理机 WAN<->LAN:
LAN->WAN,PC1->PC2 1 pair


LAN->WAN,PC1->PC2 10 pair


LAN<-WAN,PC1<-PC2 1 pair


LAN<-WAN,PC1<-PC2 10 pair




平台2 ESXi6.5a WAN虚拟网卡<->LAN虚拟网卡:
LAN->WAN,PC1->PC2 1 pair



LAN->WAN,PC1->PC2 10 pair



LAN<-WAN,PC1<-PC2 1 pair



LAN<-WAN,PC1<-PC2 10 pair





平台3 物理机 WAN<->LAN:
LAN->WAN,PC1->PC2 1 pair


LAN->WAN,PC1->PC2 10 pair


LAN<-WAN,PC1<-PC2 1 pair


LAN<-WAN,PC1<-PC2 10 pair




平台3 ESXi6.5a WAN虚拟网卡<->LAN虚拟网卡:
LAN->WAN,PC1->PC2 1 pair



LAN->WAN,PC1->PC2 10 pair



LAN<-WAN,PC1<-PC2 1 pair



LAN<-WAN,PC1<-PC2 10 pair




平台3 ESXi6.5a WAN直通物理网卡<->LAN直通物理网卡:
LAN->WAN,PC1->PC2 1 pair



LAN->WAN,PC1->PC2 10 pair



LAN<-WAN,PC1<-PC2 1 pair



LAN<-WAN,PC1<-PC2 10 pair





数据汇总:

注:前台CPU占用率为iKuai WEB界面系统状态显示的数值曲线
因为显示的不是瞬时CPU占用率,而是某段时间内的平均CPU占用率,以及显示刷新率等等原因
显示的值本身只能作为一个参考,这里取值的话也只能大概的选取某一点作为结果,可能会有一定误差

从上图可以看出:
1,虽然是跑TCP大包的情况,显然CPU还有足够的余量(这也是让它跑ESXi兼任其他功能的理论依据)
但跑满千兆3215U这台只用了大概15%以内的CPU,J1900用了30%左右的CPU
(这个可能是iKuai对J1900 支持和和优化不足的问题,后续可能会跑其他软路由譬如碧海威、LEDE、ROS等来验证)

2,ESXi下,虚拟网卡和网卡直通对于CPU的占用,差别非常明显
如果要跑ESXi一机多用,显然应该尽量节省CPU留给其他应用,所以CPU是否支持VT-d硬件直通的意义在这里






















    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多