SDN/NFV解决方案使能行业数字化转型

查看详情 >

新闻

查看更多

中兴通讯:构建高效、开放、高稳、易维的电信级智算基础设施,让大模型和GenAl更普惠

2024年5月16日,中兴通讯产品规划首席科学家王卫斌在浙江宁波举办的2024世界电信和信息社会日大会智算融合创新发展论坛上发表了题为《构建开放解耦的电信级智算基础设施》的演讲,阐述了中兴通讯在电信级智算基础设施领域的创新成果和战略布局。 中兴通讯产品规划首席科学家王卫斌发言 王卫斌强调,智算基础设施是“Al+”时代的动力引擎,对于推动全行业智能化转型至关重要。面对大模型参数规模的快速增长,构建千卡乃至超万卡级别的xLSC(Large Scale Cluster)智算集群成为智算基础设施发展的必然选择。 中兴通讯提出Al Booster电信级智算基础设施解决方案,旨在应对xLSC千卡万卡智算集群在高效、开放、高稳、易维等方面的挑战,以支撑大模型发展和GenAI广泛应用。 在“高效”方面,王卫斌表示,提升单机算力密度是构建LSC (Large Scale Cluster) /vLSC (Very Large ScaleCluster)大规模算力集群的基石。中兴通讯采用了交换架构互联和大TP(>8)技术,有效构建千卡/万卡规模智算基础设施。同时,异构并行调度技术是uLSC(Ultra Large ScaleCluster)超大规模算力集群的,通过CoHC(Cluster of Heterogeneous Compute) 异构算力集群和CoDC(Cluster of Data Center)跨DC集群混池训练实现向十万卡智算基础设施的演进。 在“开放”方面,王卫斌强调,开放的技术生态才能构建共赢的商业生态,端到端开放解耦智算方案是产业良性发展的关键。为此,中兴通讯提出了“三解耦一协同”的主张,即软硬解耦、训推解耦、模型应用解耦和算网协同。AI Booster的eMIG跨平台模型迁移套件,提供包括精度对齐、算子对齐、代码迁移和性能优化等工具,可大大减少模型迁移时间。 在“高稳”方面,AI Booster引入多级故障检测、冗余Bypass、实时分布式缓存等技术,通过WLET(WorkLoad Elastic Training)弹性训练支持千卡无感自动断点续训,实现了超大规模集群的周级长稳训练,大大减少了训练回滚时间。 在“易维“方面,Al Booster用Al管理AI,实现了智算基础设施的高效运维。通过全局可视化和管控动化,Al Booster大大提高了运维效率。跨层端到端设计、脚本自动生成、跨层拓扑实时还原等功能,使得运维工作更加简化和高效。 王卫斌表示,中兴通讯致力于构建高效、开放、高稳、易维的电信级智算基础设施,以促进大模型和GenAI的普及与发展。中兴通讯将通过持续创新和开放合作,繁荣智算产业生态,筑路数字经济,推动AI+新质生产力的发展。

中兴通讯:开放智算生态,共创智算未来

在近日举办的2024世界电信和信息社会日大会期间,中兴通讯云及智算产品总经理余方宏在可信智算融通共创论坛上发表了题为《开放智算生态,共创智算未来》的主题演讲。 中兴通讯云及智算产品总经理余方宏发言 余方宏指出,全球正在迎来一场由AI驱动的产业革命,这将对生产和生活领域带来深远的影响和变革。中兴通讯正全面拥抱AI技术,不仅在内部提升效率,也在对外赋能。中兴通讯在AI进阶的道路上坚持“开放解耦、多样算力、以网强算、训推并举”的四大核心主张。 首先,“开放解耦,构建繁荣生态”。针对AI技术生态封闭和缺乏行业标准的问题,中兴通讯秉承开放解耦的理念,发挥软件、硬件和工程能力优势,为用户提供端到端开放解耦智算方案。通过软硬解耦、算网解耦、训推解耦、模型解耦等方式,推动各类能力组件化和共享赋能,构建开放的技术生态。 其次,“多样算力、随芯选用”。中兴通讯采用一个开放智算基座,兼容多种CPU平台和GPU模组,实现换芯、换卡不换座的目标。这样用户就可以根据成本、政策、供货、功耗等不同的需求和情况来灵活选择算力引擎。同时,与多家主流GPU厂商合作,支持异厂商异构GPU的统一管理和调度,推动GPU混池训练技术突破,避免单厂家绑定。 第三,“以网强算,打造万卡规模集群”。为了满足超大模型训练需求,中兴通讯从机内和机间两个维度提升GPU卡间的高速互联能力,提出了开放的OLink互联协议和基于标准RoVEv2协议的交换机框盒互联方案,助力构筑超大规模的算力集群。 最后,余方宏强调“训推并举,加速商业闭环”。中兴通讯建议先与天使客户合作,快速验证迭代技术方案,树立行业标杆;同时,打造从中心云到专属云的全链路服务,满足不同客户需求,加速大模型在不同场景的落地和应用。 余方宏表示,中兴通讯将持续秉持“开放解耦、多样算力、以网强算、训推并举”的核心主张,与合作伙伴共同构建一个开放的智算生态,共创智算未来。 
中兴通讯:开放智算生态,共创智算未来
电信日专稿 | 中兴通讯:加速智能计算生态繁荣

电信日专稿 | 中兴通讯:加速智能计算生态繁荣

大模型的出现催生了对大算力的需求,端到端开放解耦智算方案是产业良性发展的关键。中兴通讯一直致力于成为端到端开放解耦智算方案提供商,加速AI技术的创新、研发、应用的商业化进程,努力与产业伙伴共同实现共赢的商业生态。近日,《通信产业报》全媒体采访中兴通讯副总裁陈新宇,探讨了中兴通讯如何应对挑战,助力大模型发展与应用的实践和经验。 《通信产业报》:中兴通讯在端到端开放解耦智算方案方面,做了哪些工作和取得怎样的成果。 陈新宇:中兴通讯秉承开放解耦的理念,发挥中兴软件、硬件和工程能力优势,携手合作伙伴构建多渠道供应链,通过硬件、软件和能力平台三个方面的创新,为用户提供端到端的开放解耦智算方案。 中兴通讯副总裁陈新宇表示,中兴通讯认为开放的技术生态才能构建共赢的商业生态,端到端开放解耦智算方案是产业良性发展的关键。 在硬件方面,中兴通讯采用基座灵活、适配多种CPU平台和GPU模组,实现了换芯、换卡、不换座。支持3种CPU平台,并与主流GPU完成了适配,为用户提供了多样化算力,用户就可以根据成本、政策、供货、功耗等不同的需求和情况来灵活选择算力。 在软件方面,通过异构资源管理、训推作业调度和异构集合通信,实现了软硬解耦。向下屏蔽了不同厂家芯片的差异,向上适配了主流AI框架,为模型运行提供了高性能、高可靠性、易迁移的环境。通过软硬协同深度优化,最大化了资源效率。此外,不断研究算力卸载和在网计算技术,以提升算力利用率。 在平台方面,适配主流框架如PyTorch、TensorFlow,实现向后端平台的自动编译和优化,并提供从数据处理、模型开发、训练、优化、评估、部署等端到端的工程工具集,支持全生命周期的保障和管理。同时,提供迁移工具,支持应用全域无感迁移,降低用户迁移成本。 端到端开放解耦智算平台 “百花齐放春满园”,中兴通讯认为开放的技术生态才能构建共赢的商业生态,端到端开放解耦智算方案是产业良性发展的关键。通过软硬解耦、训推解耦、模型解耦,推动各类能力组件化和共享赋能,加速AI技术的创新、研发、应用的商业化进程,构建开放的技术生态;通过产业内的芯片厂商、硬件厂商、模型开发商、应用开发商等形成优势互补,共同做大做强,共同实现智能计算生态的蓬勃发展。 《通信产业报》:大模型的出现催生了对大算力的需求,这给基础设施带来挑战,中兴通讯采取了哪些举措来应对? 陈新宇:当前,集群规模无法满足万亿以上超大模型训练,突破国内大规模集群组网上限势在必行。从GPT3千亿模型到GPT4万亿模型,每年模型参数增长10倍,加上训练token的增长,训练总算力需要提升几十倍。但算力芯片的性能每代只能增长2~4倍,单个集群需要更多的GPU卡数才能满足万亿大模型训练需求。 为了构筑更大规模的算力集群,中兴通讯从机内和机间两个维度,不断研究优化GPU卡间高速互联技术方案,满足万亿以上大模型训练需求。在机内,提出了开放的OLink互联协议,突破机内TP8限制,支持16张到128张GPU超级计算节点的大TP算力;在机间,通过集大容量交换芯片能力的不断演进,提供基于标准RoVEv2协议的交换机框盒互联方案,满足从千卡到万卡超大规模算力的灵活组网需求。 《通信产业报》:随着智算基建的完成和大模型训练的成熟,行业应用落地成为最大的挑战,中兴通讯有什么解决方案?如何推动AI应用商业闭环? 陈新宇:企业在AI技术应用方面存在短板,同时私有数据的保护限制了模型训练的有效性。此外,不同行业、不同企业的个性化需求也增加了应用落地的复杂性。 为解决这些问题,中兴通讯提出引入AiCube训推一体机的解决方案。在软硬件方面,提供多品类高算力硬件底座和易用的训推平台,内置主流大模型和AI应用。在服务方面,提供定制化服务和代训服务。 为推动行业应用落地,中兴通讯与行业伙伴紧密合作,推出多种一体化解决方案。例如,针对工业质检领域,提供机器视觉一体机;针对医疗行业,推出智能导诊的智能问答一体机。用户不需要专业技术积累,不需要大规模投资,不需要专业机房,不需要专业团队,就可以构建自己的专属大模型,用AI提升生产力。智、算、用一体化部署可大幅降低AI推广门槛,加速行业市场规模化商用。 中兴通讯AiCube训推一体机 在AI应用商业化进程中,训推并举才能加速商业闭环。中国拥有众多且丰富的应用场景和私域数据,这是在全球AI竞争中最大的优势之一。在应用方面,中兴通讯利用自研或开源基础大模型,结合丰富的行业数据和知识工程,构建领域大模型,打造行业样板,实现从“0”到“1”的突破。基于领域大模型,结合不同场景,实现从“1”到“N”的应用拓展。 在市场方面,C端市场需求相对一致化,因此采用云端部署更为合适。而在B端市场,由于还在探索和孵化应用场景,同时受限于私域数据安全等考量,客户更希望采用私域部署形式。因此,中兴通讯提倡以终为始,打造中心云到专属云的全链路服务。中心云支持基于通用数据的大模型预训练和云端推理,而专属云则提供基于私域数据的本地精调和推理。这样的服务模式由运营商进行建设维护,企业进行租用,能更好地满足客户需求,加速大模型在不同场景的落地和应用。 《通信产业报》:大模型引领行业变革,中兴通讯在大模型及应用方面有哪些实践? 陈新宇:在大模型及应用方面,中兴通讯采用“1+N+X”策略,基础大模型采用自研与生态合作并举,并在此基础上通过领域知识增量预训练“N”个领域大模型,包括研发大模型、工业大模型、通信大模型、政务大模型等,进而衍生出“X”种应用,构筑产业数智化转型新引擎。 其中,在研发领域,研发代码大模型辅助公司开发人员编码效率提升30%;在生产制造领域,在公司南京滨江基地,通过工业大模型将订单排产时间缩短88%、工艺文件生成效率提升50%;在通信领域,在乌镇世界互联网大会上,基于通信大模型的重保助手可一键生成重点事件保障方案,相比于传统保障流程,保障效率可提升80%。 业界首个基于大模型的“智御”反诈系统应用,针对百万级诈骗短信样本进行增量训练,可结合上下文语义关联信息,精准识别经过各种变异干扰的垃圾短信,拦截准确率提升至99%;在水利领域,基于水利大模型实现多轮对话、意图识别、知识问答等,助力水利知识平台建设,河道知识问答准确率达90%;在城市生命线安全工程领域,率先用大模型实现对燃气、积水、道路隐患等多种风险的视觉智能识别,自动生成应急处置预案,保障人民群众的生命财产安全。
中兴通讯全栈全场景智算基础设施解决方案亮相中国移动算力网络大会

中兴通讯全栈全场景智算基础设施解决方案亮相中国移动算力网络大会

近日,2024中国移动算力网络大会在苏州举办,中兴通讯以“兴智能 新纪元”为主题参与此次盛会,在会上展出了全栈全场景智算基础设施解决方案,使能数智化转型,开启AI+新时代。 数智化时代催生了海量算力需求,算力已经成为数字经济的重要驱动力。此次中兴通讯展示的解决方案,在硬件层面,提供全系列、全场景智算产品,适配国内外主流GPU,提供多样化选择。在软件与工程能力方面,中兴通讯供高效易用的AI平台,解决训练过程的工程化问题,大幅提升GPU算力利用率和大模型训练效率。除此之外,中兴通讯还致力于打造开放的生态,积极推进软硬解耦、模型解耦和训推解耦,与全产业链积极合作。 中兴通讯提供的全系列算/存/网产品,兼顾性能领先和自主创新,满足多样化智算中心全场景需求。 全系列全场景:一站式提供训练服务器、推理服务器、训推一体机、通算服务器、高性能文件存储、高性能RoCE交换机,规模化组网方案,满足从中心到边缘的多样化智算中心建设需求。 自主创新:自研定海芯片,打造系列化且性能强大的网卡产品,包括标准网卡、智能网卡、DPU卡;自研转发芯片,业界容量1.5倍,国产No.1。 极致性价比:智算资源池化、虚拟化、异构算力统一管理和调度、训推资源比例动态调整,最大化智算资源利用率。 开放生态:全面适配主流GPU,软硬件解耦,训推解耦,算/存/网解耦,打造全面开放解耦的智算生态。 中兴通讯将继续将持续秉持开放的智算生态理念,与全球运营商和行业伙伴展开深入的合作,共同推动算力基础设施的智能化转型升级,实现数智化转型,加速AI新时代的到来。

中兴通讯张万春:构建全栈智算基础设施,激活全行业、全场景的新质生产力

4月11日,2024年度中兴通讯云网生态峰会在南京成功举办,本届峰会以“合作共赢,数智同兴”为主题。期间,中兴通讯高级副总裁张万春发表了题为《全栈智算基础设施,解锁新质生产力》的主题演讲。 今年政府工作报告首提“人工智能+”,标志着一个全新时代的到来,也是30多年来科技发展的工程突破。AI大模型的两个核心点“科技平权”和“超级工具”,开始改变和重塑整个产业。 张万春表示,无论打造基础大模型、训练行业大模型,还是将AI大模型应场景化应用到生产业务流程中,首先谈及的是GPU。但仅仅依赖GPU的堆砌是无法完成大模型的训练,必须具备端到端的软硬件能力和工程能力,才能够充分释放GPU的潜能,从而加速企业融入人工智能的新时代。中兴通讯致力于为千行百业提供AI淘金热中的“黄金铲”,全链条赋能“人工智能+”,助力客户经营掘金、产业升级。 中兴通讯提供的“黄金铲”,包括了硬件能力、软件能力、工程能力以及产业生态的全栈智算解决方案。在硬件层面,提供全系列、全场景智算产品,适配国内外主流GPU,提供多样化选择。在软件与工程能力方面,提供高效易用的AI平台,解决训练过程的工程挑战,大幅提升GPU算力利用率和大模型训练效率。除此之外,中兴通讯还致力于打造开放的生态,积极推进软硬解耦、模型解耦和训推解耦,与全产业链积极合作。 在本次峰会上,中兴通讯全栈智算基础设施家族再添新品,分别是高性能AI服务器R6900 G5、边缘训推一体机AiCube、全系列网卡以及高端多控磁阵KF8810。 高性能AI服务器R6900 G5:适用于大模型训练场景,与国际国内众多主流GPU模组完成了适配,同时,风冷液冷按需搭配,PUE可以降至1.1。 训推一体机AiCube:具有快交付、易使用、高安全的优势,提供定制和代训服务,助力企业轻松驾驭专属大模型。 全系列网卡:基于自主研发的定海芯片,推出系列化且性能强大的网卡产品,包括标准网卡、智能网卡、DPU卡。 高端多控磁阵KF8810:采用自研操作系统和自研存储软件,为客户提供一站式超高性价比的高端存储产品。 这些产品的推出,将为客户提供更为灵活、高效的全栈智算基础设施解决方案,助力各行各业迈入人工智能的新时代。 未来,中兴通讯将持续秉持开放的智算生态理念,携手业界伙伴,打通技术到应用的全链条,激活全行业、全场景的新质生产力,为实现智慧生活和产业升级贡献中兴AI力量。
中兴通讯张万春:构建全栈智算基础设施,激活全行业、全场景的新质生产力

中兴通讯在“2023年度SDN、NFV、网络AI优秀案例征集活动”中荣获三项大奖

近日,在“2023年度中国SDN、NFV、网络 AI优秀案例征集活动”中,5G专网登陆“爱达·魔都”号,中兴通讯iCube2.0大放异彩案例,基于IPv6+的新型城域网创新实践应用案例获得“优秀实践案例”奖;用算力制造算力,基于算力模型感知的多业务统一调度案例荣获“最佳实践案例”奖,体现了业界对中兴通讯在SDN/NFV/AI领域的技术领先性和商业成熟度的充分认可。 “2023年度中国SDN、NFV、网络 AI优秀案例征集活动”由SDN/NFV/AI标准与产业推进委员会主办,旨在分享和推介过去一年来业界成功的商用部署案例,更好推动我国云网/算网融合、自智网络、5G+MEC边缘计算、数据中心网络以及云网安全等相关产业高质量发展,助推ICT技术赋能更多行业的数字化转型。 5G专网登陆“爱达·魔都”号,中兴通讯iCube2.0大放异彩 5G专网登陆“爱达·魔都”号,中兴通讯iCube2.0大放异彩,该方案构建于中兴通讯iCube2.0云网柜,积木化加载了i5GC、iIMS、ePDG和AAA等网元,在VoNR的基础上实现了VoWiFi专网语音的全球首发。可以同时提供5G数据与语音,满足乘客5G-5G、5G-WiFi和WiFi-WiFi间互相通话。并通过高通量卫星回传打通运营商网络,结合本地算力部署,实现流量本地卸载,大大节省卫星回传带宽,形成了5G、WiFi和卫星通信的“海空地互联”的天地一体化网络,乘客可享受到连接无处不在的便捷。 5G网络登陆魔都号,是邮轮行业的一次技术革新,也为中国海上通讯、远洋通讯发展树立标杆,提供了重大借鉴意义。 基于IPv6+的新型城域网创新实践应用 基于IPv6+的新型城域网创新实践应用案例涵盖了上海电信在CTNet2025战略下的城域网演进和新技术应用。中兴通讯通过采用SRv6、EVPN、小颗粒切片、IOAM等IPv6+新技术实现了传统城域网向新型城域网的快速演进以及传统宽带用户向云宽带用户的快速转型,创新设计新型城域网架构。多种创新解决方案助力承载网络满足5G时代的用户需求,提供大带宽、低时延、高可靠性等特性,从而实现高效智能运维。同时,智能运维工具的部署提升了业务开通效率,简化了网络运维。通过以上新架构和新能力的引入,中兴通讯助力上海电信完成城域网vBRAS百万用户上线,打造“云宽带商用第一城”,推动中国电信云网应用创新及产业升级,牢筑IPv6算网底座新基石,促进数字经济蓬勃发展。 用算力制造算力,基于算力模型感知的多业务统一调度 用算力制造算力,打造园区多样化算力调度服务标杆。江苏移动积极贯彻集团公司要求,结合长三角一体化发展战略,联合中兴通讯率先探索算力网络服务模式。该方案选取中兴通讯南京滨江及西安算力研发基地,通过算力调度平台动态感知各个资源池的算力负荷,实施多资源池多业务混合调度,保障最合适的对象使用最合适的资源,满足这两个“算力制造中心”在不同场景下的具体业务对于算力资源诉求,为企业产品研发、测试等业务提供“即取即用”算力服务。 该方案以算力网络为切入点,探索算网基础设施的技术创新和服务创新,实现了运营商和实体产业的双赢模式。 中兴通讯针对云网/算网融合、算力网络、自智网络/网络AI、5G+MEC边缘计算等技术领域,开展了广泛的研究,取得了显著的成果,已在该领域积累了丰富的商用经验。未来,中兴通讯将继续携手运营商和合作伙伴加速推进以NFV、SDN、网络AI等为代表的新一代通信技术的发展,赋能全行业数字化转型升级。 
中兴通讯在“2023年度SDN、NFV、网络AI优秀案例征集活动”中荣获三项大奖
5G先锋

5G SA大规模商用部署

首推全融合5G核心网

Top3 5G必要专利

丰富的交付经验

获得咨询公司高度评价

屡获通信行业大奖

业界荣誉

精彩视频