您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 质量控制/管理 > H3C数据中心网络解决方案
数据中心网络解决方案密级:公开杭州华三通信技术有限公司运营商技术部目录云计算数据中心对网络的挑战H3C云计算数据中心解决方案H3C新一代数据中心产品及应用云计算数据中心对网络的挑战挑战一:流量模型挑战二:突发流量挑战三:设备性能挑战四:数据安全挑战五:网络虚拟化云计算数据中心对网络的挑战挑战一:应用模式的变化带来的流量模型变化数据BlogIPTVEmailIM游戏新闻过去:线状流量模型多套系统纵向流量80%,横向流量20%流量方向简单突发性小现在与将来:网状流量模型统一的云计算平台横向流量80%,纵向流量20%流量高度不定向突发性大新闻视频数据IM数据数据BSSOSSOAIMEmailMSSMSSOSSBSS人人挑战二:数据中心中的Burst流量特征在短时间内,由于交换式网络线速转发能力,特定应用与组网条件下,网络流量突然增大,可能会瞬时超过网络设备的实际速率。单位ms05101520253035404550例:0-5毫秒内速率=4packet/0.005s=800pps0-10毫秒内速率=5packet/0.010s=500pps15-20毫秒内速率=035-40毫秒内速率=1packet/0.005s=200pps50毫秒内速率=17packet/0.050s=340pps问:突发在何时产生?过程对于网络设计本无特殊要求,但迁移的范围要求网络二层连通业务群业务群业务群业务群业务群业务群业务群业务群业务群业务群业务群业务群业务群业务群业务群业务群业务群•不定向的突发流量成为新业务数据中心的典型特征,而未来云计算的应用将使该特征更加显著。•网络流量从微观角度观察,其形态非常复杂,对实时性、可靠性敏感的网络,对设备缓存能力的需求十分迫切!捆绑10GE捆绑GE/10GE10GE捆绑10GE捆绑10GE捆绑GE/10GE10/40/100G40G/100G40G/100G20072010万兆服务器的部署将驱动数据中心骨干向超高速100G网络发展挑战三:性能永远是数据中心最大的挑战以目前一个基本的业务云单元约2000台服务器计算,每个服务器至少需要1GE非收敛带宽,则核心交换区总带宽高达2T,至少需要200个10GE端口,而且必须是任意方向完全无阻塞转发。而未来随着单台服务器能力的提升,带宽需求将更加强烈。挑战四:安全成为网络的必备基础特性•新一代数据中心流量更大,业务各类更复杂,同时要求网络与安全能随适应业务快速变化。•传统的“网络+安全”简单叠加模式已经无法适应新一代数据中心的需要,网络与安全相互融合成为趋势,安全来越成为网络的基础特性。万兆性能智能融合线速渗透传统–设备叠加,性能衰减H3C–应用性能线速安全渗透网络计算存储新闻视频IM集群1集群2集群3路由交换防火墙IPS无线路由交换防火墙IPS流量清洗负载均衡新闻视频IM计算存储挑战五:虚拟化成为数据中心的发展趋势传统-H3C-统一交换架构存储池Ethernet计算池网络资源池•计算与存储资源虚拟化技术日趋成熟,网络虚拟化开始起步•网络虚拟化可以大大简化网络逻辑结构,提高整网可靠性,并将进一步根据业务需求灵活调配网络资源,提高网络资源利用率。目录云计算数据中心对网络的挑战H3C云计算数据中心解决方案H3C新一代数据中心产品及应用*NGE10GEGE全网采用虚拟化后的链路捆绑技术实现二层链路的负载均衡和备份,实现二层网络扩展,构建无环路、无阻塞的云计算数据中心交换网络。Internet接入层交换机通过IRF技术虚拟成一台设备,IRF设备具有统一的管理和转发表项,服务器接口捆版上行,实现接入层的流量负载均衡和备份。核心层设备同样适用IRF技术虚拟成一台,接入交换机通过10GE接口双上行到核心交换机,每组IRF接入交换机的所有上行接口进行链路聚合,实现接入层到核心层的流量负载均衡和备份。WEB/APP/DBWEB/APP/DBSecurityFabric从接入层到核心层均实现网络安全融合,提供FW、IPS、LB等安全加固、业务优化功能;安全业务灵活定制;任意两点之间线速交换、对等无差异;分布式大缓存;CLOSS交换架构;全线速5000台服务器。无差异二层网络,满足虚拟机在网络中任意位置的迁移:智能弹性架构IRF2.0系统物理连接示意多网卡服务器10GEIRF2.0系统逻辑连接示意802.3ad普通以太网接入交换机IRF接入交换机组802.3ad多网卡服务器普通以太网接入交换机IRF接入交换机组IRF虚拟技术,降低二层网络成本:消除二层网络环路问题,避免部署复杂的STP通过跨设备的链路聚合技术提高带宽利用率,减少设备端口数保护倒换时间从2-4秒降到200mS以内虚拟化的设备逻辑上是一台,作为一个网元设备进行管理配置方案优点:虚拟机间报文转发性能好与外部网络的兼容性好节省接入层物理交换机设备缺点:消耗CPU资源缺乏网络流量的可视性缺乏网络控制策略的实施能力缺乏管理可扩展性硬件VEB方案优点:相对于VSwitch(软件VEB),减少了CPU占用率提高了虚拟机操作系统访问物理网卡的性能支持SR-IOV的网卡,可虚拟化出256个虚拟网卡,提高了物理服务的网络虚拟化能力缺点:缺乏管理的可扩展缺乏主流操作系统产品的支持VEPA标准方案技术特点:借助“发卡弯”转发机制将物理交换机的网络控制策略(如ACL、QOS、端口案全等)和流量监管特性(如端口流量统计、镜像、采集等)引入到虚拟机网络接入层,简化网卡设计,减少虚拟网络转发对CPU开销;缺点:由于流量被从虚拟机上引入到外部网络,EVB技术也带来了更多网络带宽开销的问题VEPA增强方案(多通道)一种改进:多通道技术为管理员提供了选择虚拟机与外部网络接入方式的手段。三种选择:可根据网络安全、性能及可管理性的需求,采用中VEB、DirectorIO或VEPA的任何一种方式为虚拟机提供网络接入。……+VEPA802.1Qbg标准技术联盟领导者:标准化进程虚拟机网络之标准VEPA802.1QbgVEPA虚拟机交换方式:•将虚拟机的交换能力回归到交换机是主流趋势•H3C将率先推出相关产品远程访问S12500IRF21GEN×10GEN×10GEN×10GEN×10GEN×10GE10GEGE光GE电防火墙流量清洗10GE10GEN×10GE用户自建网络流量分析SecCenter大型综合数据中心解决方案S5800IRF2S5800IRF2汇聚接入层网络分支数据中心间三种互联方案三层互联。也称为数据中心前端网络互联,所谓“前端网络”是指数据中心面向internet的出口。不同数据中心(主中心、灾备中心)的前端网络通过IP技术实现互联,园区或分支的客户端通过前端网络访问各数据中心。当主数据中心发生灾难时,前端网络将实现快速收敛,客户端通过访问灾备中心以保障业务连续性。二层互联。也称为数据中心服务器网络互联。在不同的数据中心服务器网络接入层,构建一个跨数据中心的大二层网络(VLAN),以满足服务器集群或虚拟机动态迁移等场景对二层网络接入的需求。SAN互联。也称为后端存储网络互联。借助传输技术(DWDM、SDH等)实现主中心和灾备中心间磁盘阵列的数据复制。园区主、备中心的汇聚层都支持虚拟化,双中心汇聚间可实现跨设备链路聚合;这种方案不需要建立专门的DCI互联设备;双中心间裸光纤/DWDM直连;两中心汇聚上配置VRRP,一边是MASTER,另一边是SLAVER。汇聚设备:关闭STP构建一个同时连接四中心汇聚层的互联节点,该节点由两台支持IRF的物理交换机构成。出于高可用性的考虑,这两台物理交换机应部署在不同的数据中心内(A中心和B中心)。互联节点与各中心的汇聚层采用双链路捆绑互联。在逻辑结构上,四中心与互联节点构成了一个Hub-Spoke的星形拓扑,其中互联节点为HUB,各中心汇聚层为Spoke。核心网的VPLS互联方案说明WAN/IP汇聚IRF接入核心MPLS核心网PWPWPWPWPWPWVRRP在三个中心的汇聚上运行,服务器GW在一个数据中心的汇聚上;汇聚面向PE侧端口关闭STP;PEIRFPEIRF使能MPLS关闭STP偶数VLAN的PW奇数VLAN的P目录云计算数据中心对网络的挑战H3C云计算数据中心解决方案H3C新一代数据中心产品及应用统一数据管理平台H3C全系列的数据中心级产品数据中心级交换机的价值业界主流厂商专门针对数据中心应用场景开发数据中心级交换机≠传统城域网交换机采用与核心路由器同样的转发、控制平面硬件分离设计,最高可靠性保证采用CLOS多级多平面交换架构,在各种流量模型下均能做到“严格”无阻塞线速转发。所有接口板,交换网板,主控板卡都采用竖插框,设备风道设计符合数据中心的散热制冷系统要求,帮助降低机房整体制冷能耗。分布式超大容量缓存,支持200ms的流量缓存,严格保证数据中心在突发流量频繁时不丢包。超大的ACL硬件资源,利于数据中心内部各种流量策略的部署。IRF虚拟化技术,实现跨设备链路聚合,提高带宽利用率,简化网络结构和管理,即保证二层连通,又避免部署STP协议。多级多平面交换架构,提供13.32T的交换容量支持未来40G、100G以太网标准单机576个万兆端口接入密
本文标题:H3C数据中心网络解决方案
链接地址:https://www.777doc.com/doc-4485386 .html