本帖最后由 glk17 于 2017-3-9 16:43 编辑 x86平台家庭网络中心折腾系列: 【第一篇】抛砖引玉--x86 mini主机虚拟NAS,下载机,软路由带宽叠加7层流控 家庭网络中心需求分析,虚拟化一机多用实现方案,硬件选型,软路由系统选型 【第二篇】x86平台DSM群晖、ESXi虚拟化网络性能对比 本文,未完,测试补齐中 物理机跑软路由,ESXi虚拟机跑软路由(含网卡直通),DSM群晖下phpVirtualBox虚拟机跑软路由,性能、效率对比测试 【第三篇】2017路由器、网络该怎么玩——ESXi多条宽带接入多线策略路由 ESXi虚拟机网卡直通跑软路由,网络功能实现及设置参考 x86平台软路由的用法有很多 譬如最简单的直接物理机做软路由 或者跑DSM黑群晖,再跑虚拟机运行软路由 或者跑ESXi再跑虚拟机运行软路由 或者跑Hyper-V Server再跑虚拟机运行软路由 等等 软路由家用,只要性能够用的前提下 当然最好是功耗能多小就多小,体积能多小就多小 功耗低了发热量小就可以用被动散热,适合放在弱电箱等狭小空间里 能10W解决的话就不要用20W的机器,能5W解决的就不要用10W的机器 所以,本帖想探究这几个问题: 1,物理机跑软路由,什么样的硬件配置能跑满千兆NAT 2,虚拟化后虚拟机跑软路由,什么样的硬件配置能跑满千兆NAT 3,虚拟化后虚拟机跑黑群晖,什么样的硬件配置能跑满千兆samba共享 平台1: DELL OptiPlex 380 CPU:Intel® Pentium® Processor E5400 2M Cache, 2.70 GHz, 800 MHz FSB 双核 45nm TDP 65W 内存 支持 双通道 DDR3 不支持VT-d http://ark.intel.com/zh-cn/products/40478/Intel-Pentium-Processor-E5400-2M-Cache-2_70-GHz-800-MHz-FSB 内存:DDR3 4G *1(内存插槽两个) 存储:SATA 120G SSD*1 网卡:BCM5721*1,Intel 平台2: CPU:Intel® Celeron® Processor J1900 2M Cache, 2 GHz up to 2.42 GHz 4核4线程 22nm TDP 10W 内存 支持 双通道 最大8G DDR3 支持VT-x(不支持VT-d) http://ark.intel.com/zh-cn/products/78867/Intel-Celeron-Processor-J1900-2M-Cache-up-to-2_42-GHz 内存:DDR3L 4G *1(内存插槽一个) 存储:mini SATA SSD 32G *1,eMMc4.5 32G *1(仅支持EFI启动,暂未使用),SATA 2.5寸硬盘接口*1 网卡:Intel® Ethernet Controller I211-AT *4 平台3: Intel® Celeron® Processor 3215U 2M Cache, 1.70 GHz 2核2线程 14nm TDP 15W(支持TDP-down 10W) 内存 支持 双通道 最大16G DDR3L 支持VT-x和VT-d http://ark.intel.com/products/84810/Intel-Celeron-Processor-3215U-2M-Cache-1_70-GHz 内存:DDR3L 8G *1(内存插槽一个) 存储:mSATA SSD 24G *1,SATA 硬盘接口*1(含数据、供电二合一线) 网卡:Intel® Ethernet Controller I211-AT *4 测试环境: PC1: CLEVO W150ER Windows 10 Pro x64 I5 3320M/8G DDR3 1600MHz/GT650M 1G DDR5/128G PM830/Realtek PCIe GBE Family Controller/BCM94360HMB PC2: FUJITSU FMVA15MJ Windows 7 Ultimate x64 I3 3110M/4G DDR3 1600MHz/20G SSD/Realtek PCIe GBE Family Controller/Atheros AR946X IxChariot Console 6.70 IxChariot Endpoint 7.10 Ultra_High_Performance_Throughput.scr LAN<->LAN: PC1->PC2 1 pair ![]() PC1->PC2 10 pair ![]() PC1<-PC2 1 pair ![]() PC1<-PC2 10 pair ![]() 平台2 物理机 WAN<->LAN: LAN->WAN,PC1->PC2 1 pair ![]() ![]() LAN->WAN,PC1->PC2 10 pair ![]() ![]() LAN<-WAN,PC1<-PC2 1 pair ![]() ![]() LAN<-WAN,PC1<-PC2 10 pair ![]() ![]() 平台2 ESXi6.5a WAN虚拟网卡<->LAN虚拟网卡: LAN->WAN,PC1->PC2 1 pair ![]() ![]() ![]() LAN->WAN,PC1->PC2 10 pair ![]() ![]() ![]() LAN<-WAN,PC1<-PC2 1 pair ![]() ![]() ![]() LAN<-WAN,PC1<-PC2 10 pair ![]() ![]() ![]() 平台3 物理机 WAN<->LAN: LAN->WAN,PC1->PC2 1 pair ![]() ![]() LAN->WAN,PC1->PC2 10 pair ![]() ![]() LAN<-WAN,PC1<-PC2 1 pair ![]() ![]() LAN<-WAN,PC1<-PC2 10 pair ![]() ![]() 平台3 ESXi6.5a WAN虚拟网卡<->LAN虚拟网卡: LAN->WAN,PC1->PC2 1 pair ![]() ![]() ![]() LAN->WAN,PC1->PC2 10 pair ![]() ![]() ![]() LAN<-WAN,PC1<-PC2 1 pair ![]() ![]() ![]() LAN<-WAN,PC1<-PC2 10 pair ![]() ![]() ![]() 平台3 ESXi6.5a WAN直通物理网卡<->LAN直通物理网卡: LAN->WAN,PC1->PC2 1 pair ![]() ![]() ![]() LAN->WAN,PC1->PC2 10 pair ![]() ![]() ![]() LAN<-WAN,PC1<-PC2 1 pair ![]() ![]() ![]() LAN<-WAN,PC1<-PC2 10 pair ![]() ![]() ![]() 数据汇总: ![]() 注:前台CPU占用率为iKuai WEB界面系统状态显示的数值曲线 因为显示的不是瞬时CPU占用率,而是某段时间内的平均CPU占用率,以及显示刷新率等等原因 显示的值本身只能作为一个参考,这里取值的话也只能大概的选取某一点作为结果,可能会有一定误差 从上图可以看出: 1,虽然是跑TCP大包的情况,显然CPU还有足够的余量(这也是让它跑ESXi兼任其他功能的理论依据) 但跑满千兆3215U这台只用了大概15%以内的CPU,J1900用了30%左右的CPU (这个可能是iKuai对J1900 支持和和优化不足的问题,后续可能会跑其他软路由譬如碧海威、LEDE、ROS等来验证) 2,ESXi下,虚拟网卡和网卡直通对于CPU的占用,差别非常明显 如果要跑ESXi一机多用,显然应该尽量节省CPU留给其他应用,所以CPU是否支持VT-d硬件直通的意义在这里 ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
|