SDN/NFV解决方案使能行业数字化转型

查看详情 >

新闻

查看更多

中兴通讯王卫斌:AI 进阶 ,开启极智算网新未来

中兴通讯产品规划首席科学家王卫斌在2024 WAIC的AI创新生态论坛发表了题为《AI进阶,开启极智算网新未来》的演讲,阐述了中兴通讯在智算领域的核心理念和战略布局。 王卫斌强调,近一年来,全球大模型和生成式AI技术突破层出不穷,智能计算的发展进入快车道,AI将从1.0进阶到2.0。相较于AI 1.0,从技术上看,AI 2.0阶段的大模型将从千亿进化到万亿甚至数十万亿,与此对应,AI基础设施从千卡集群发展到了万卡甚至超万卡集群,同时也在探索异构集群和长距互联集群的可行性。但是,谈及AI 2.0更多地是指构建AI产业开放生态和商业成功所面临的新挑战,包括:从单纯的大模型训练竞赛向模型推理应用落地、使能千行百业的转变;从性能优先、价格昂贵的集群系统向性价比优先、人人用得起的普惠算力转变;从多而不强、自成一体的碎片化封闭生态向取长补短、多方协同的开放创新生态转变。 面对AI进阶新挑战,王卫斌表示中兴通讯将坚持开放解耦原则,通过“开放基座、以网强算、训推并举、多方合作”的核心理念与产业链合作伙伴共同构建一个开放的智算生态。 首先是构建一个开放的“智算基座”,与主流GPU厂商紧密合作,提供高性能和多样化的算力解决方案。该方案不仅实现了“换芯不换座”的目标,还可以让用户根据不同场景选择合适算力,加速AI算力的创新,实现共赢的商业生态。 其次是基于“以网强算”理念打造高效超万卡集群。针对单卡算力受限和机内卡间互联瓶颈引入了Olink开放交换互联的创新突破,这不仅推动了机内通信从点对点全网状互联向交换互联的转变,还支持单机更大规模的GPU部署。针对超大规模GPU服务器带宽和拥塞瓶颈,推出超万卡星云网络高速互联技术,通过大容量交换和400G接口及IGLB全局流控技术实现超万卡互联和端网协同,极大提升了集群算力的使用效率。 再次是采取“训推并举”策略,支持异构GPU混池训练,避免了对单一算力的依赖。在推理方面,支持多场景、多规格的推理卡,实现了推理任务的智能分发,为不同的推理任务选择了性价比最高的推理卡。此外,通过提供迁移工具,支持训练和推理在不同场景GPU之间的快速迁移,进一步降低了推理成本。 最后是积极推进“多方合作”,催熟AI产业生态。中兴通讯与业界主流厂家合作,共同打造ZTE Cloud AI开放实验室,实现多厂商互操作性测试、系统集成、创新方案验证和技术标准化;同时与多家业界主流模型合作,构建多场景系列化AI应用一体机,集成了开放模型仓库和多场景应用,支持多模型入驻模型和应用灵活适配。这使得最终客户可以根据自己的需求,灵活选择不同模型,打造场景化应用。 王卫斌表示,未来AI技术和产业将持续进阶迭代,中兴通讯始终秉持开放共赢的理念,携手合作伙伴共同构建多元化智算发展新生态,共赢AI新未来。
中兴通讯王卫斌:AI 进阶 ,开启极智算网新未来

WAIC 2024丨中兴通讯AI创新生态论坛:与产业链伙伴共建开放的智算生态

7月6号,以“全栈智算,打造高效基座;开放合作,构建繁荣生态”为主题的2024世界人工智能大会中兴通讯AI创新生态论坛在沪成功举办。论坛汇聚顶尖专家学者,GPU厂家、模型厂家、运营商及行业伙伴,共话AI驱动下的产业变革,共探智算发展的未来趋势,共享大模型落地和商业化经验,共建广泛协作、开放利他的AI生态雨林。 中兴通讯执行副总裁、首席技术官王喜瑜出席会议并发表致辞,他指出,封闭的智算生态带来的是选择受限,而解开生态封闭最根本的方法就是解耦。对此,中兴通讯愿意在构建开放解耦的AI生态进程中担当“一根扁担”,扁担的左边是算力芯片的供应商,扁担的右边是AI生态的需求方,同时为更好地支持扁担的左右两边,中兴通讯将自身定位为“开放赋能、自主创新的智网底座”,基于深厚的研发积累,提供从算力、连接到平台的全栈开放智算解决方案,兼容适配国内外主流芯片,并支持、推动多种开放互联标准。 人工智能进入大模型时代,对算力产生爆发式需求,算力成本居高不下,构建国产AI万卡的系统需综合考虑多个方面。中国工程院院士郑纬民以《构建国产AI卡的万卡系统生态》为题,分析了改善国产大模型生态系统所需要做好的十大方向,包括编程框架、并行加速、通信库、算子库、AI 编译器、编程语言、调度器、内存分配、容错系统、存储系统等。 当前智能计算的发展进入快车道,AI将从1.0进阶到2.0,中兴通讯产品规划首席科学家王卫斌提出面对AI进阶新挑战,中兴通讯将坚持开放解耦原则,通过“开放基座,多元算力灵活供给;以网强算,打造高效超万卡集群;训推并举,加速商业闭环;多方合作,催熟AI产业生态”的核心理念,与产业链合作伙伴共同构建一个开放的智算生态。 大模型的竞争热潮正在驱动智算中心从千卡集群向万卡甚至超万卡集群演进,中国移动研究院主任研究员陈佳媛在演讲中阐释了构建基于国产生态体系、技术领先的超万卡集群面临的诸多挑战。针对亟待解决的问题,中国移动大力推进全调度以太网GSE、全向智感互联OISA、算力原生等原创核心技术成熟,为超万卡集群的创新突破做好技术储备,同时也在着力研究跨集群分布式训练场景,解决大模型长距离分布式训练的难题。 随着AI技术的快速更新迭代,生成式人工智能逐渐渗透生产生活的多个领域,但广泛应用的大语言模型存在的局限性开始凸显,在此背景下,RAG应用而生。阿里云计算平台AI产品架构总监魏博文围绕《企业级大模型RAG场景应用构建》解读了PAI模块化RAG功能,如模块化设计,灵活可配置;基于社区开源组件构建,定制化门槛低;多维度自动评估体系,轻松掌握各模块性能质量等。 经过众多演讲嘉宾对AI智算领域的深度剖析,线上线下观众对相关技术发展、产业布局、应用场景等有了更加清晰的认识,在热烈而富有启发的氛围中,智谱CIT创新中心主任冯小平也登台亮相,带来了他对行业的独到见解和精彩演讲。 当网络化和智能化快速发展,当人工智能和数字演艺相遇,未来被激发出无限的可能,上海戏剧学院创意学院副院长铁钟以“人工智能时代下的线下大空间沉浸演艺”为题分享了AI带给演艺艺术的巨大改变,如5G VR大空间,去掉负重背包,使能超高清渲染、多人大并发。AI带给艺术工作者新的想象空间,在AI的助力下,能够强有效打破演艺工作中的思维限制和创新限制。 大模型进入落地之年,算力需求激增,为国产AI芯片带来新的机遇与挑战。壁仞AI软件首席架构师丁云帆表示,壁仞科技依托其高性能GPU,打造了软硬一体、全栈优化、异构协同、开源开放的大模型解决方案,构建了开放BIRENSUPA软件生态系统,与合作伙伴和客户协同推进大模型产业生态的发展,助力国产GPU实现千卡集群的商用落地。 圆桌环节由中兴通讯副总裁唐雪主持,商飞智能数字化系统事业群副总经理杨帆、上海人工智能研究院算力算网中心主任苏合检、百川智能商业技术总监郭美青、寒武纪解决方案总监张明、摩尔线程产品总监申骞、中国电子云智能产品解决方案总监陈磊参与讨论。 嘉宾们从政策、芯片、大模型、行业用户等角度分析了“在AI驱动的产业革命于全球范围内对生产生活带来深远影响和变革的背景下,人工智能技术推广应用遇到的主要困难、潜在风险及解决建议”。此外,嘉宾们分别根据自身在产业链中不同的定位带来不同视角的前瞻性成果及理念分享,致力于打破各环节壁垒,实现多维度的互联互通。 在会议即将闭幕之际,中兴通讯携手各位发言嘉宾及瀚博、燧原、天数、海光等企业代表,共同发起AI创新生态合作倡议。此倡议希望集各方之力及各家之长共同推动人工智能产业繁荣发展。 面向未来,中兴通讯将继续坚持“数字经济筑路者”的生态定位,在AI进阶及智算发展之路上,与行业合作伙伴共商、共建、共享,助力实现开放、包容、普惠、共赢的AI智算美好图景,为千行百业数智化升级赋能,为数字经济高质量做出贡献。
自主创新+开放解耦 中兴通讯致力打造AI新生态

自主创新+开放解耦 中兴通讯致力打造AI新生态

随着AIGC如雨后春笋般快速发展,AI人工智能领域成为全球瞩目的焦点,与之相对应的AI智算需求也在大幅增长,在AI技术和应用的快速发展中,也遇到了一些挑战,如缺乏行业统一标准、AI技术生态封闭、AI硬件供应垄断以及AI软件应用的兼容问题等,一定程度上限制了AI技术的进一步发展。 只有开放繁荣的生态,才能铸就AI人工智能新时代的未来,在近日举办的2024世界人工智能大会上,中兴通讯秉承自主创新+开放解耦的理念,全方位展示端到端的开放解耦智算方案,打通从技术到应用的全链条能力,广泛携手全产业上下游合作伙伴,实现AI创新成果的共享和共赢,从而打造开放繁荣的AI新生态。 在硬件层面,中兴通讯凭借多年以来在服务器存储等算力基础设施产品方面的研发投入,坚持自主创新,打造开放的智算服务器硬件基座,产品采用模块化设计,能够兼容目前国内外主流厂商的多型号CPU和GPU,实现换芯换卡不换座,为客户提供多元化的算力选择,兼顾自主创新和性能领先,满足客户不同应用场景需求。 在网络方面,中兴通讯与产业伙伴共同建立了开放的GPU互联标准Olink(Openlink)高速总线互联标准,兼容现有RDMA协议,实现服务器内和服务器间统一互联技术。 在应用层面,基于中兴通讯AIS训推平台提供的模型迁移工具套件,可实现大模型跨GPU平台高效无损业务迁移,实现5天可用,15天好用,快速进行模型和算子分析,并提供精度分析工具和性能分析工具,帮助开发者快速定位并解决问题,从而大幅缩短调试时间,确保模型在迁移后能够保持良好的性能和稳定性。目前AIS训推平台提供的模型迁移工具已支持国内外多种主流大模型,大幅降低模型迁移的时间和人力成本。 坚持自主创新+开放解耦,中兴通讯将持续与业界主流GPU厂家进行广泛深入的合作,全面适配业界主流的大模型应用,加速AI业务创新,打造开放共赢的AI生态圈。
中兴通讯三项方案荣登2024信息通信业“新质推荐”

中兴通讯三项方案荣登2024信息通信业“新质推荐”

通信世界网消息(CWW)近日,2024信息通信业“新质推荐”系列发布在2024MWC上海期间正式发布。中兴通讯三项方案荣登“新质推荐”:中兴通讯5G-A通感一体解决方案获得2024年5G-A场景最佳创新方案,中兴通讯AiCube训推一体机获得2024年智能算力技术最佳方案,中兴通讯星云通信大模型获得2024年最佳自智网络技术创新。 中兴通讯5G-A通感一体解决方案采用同一套设备、一张网络,实现了通信和感知两种业务的无缝对接,不仅扩展了通信网络的功能边界,也使得感知业务得以普遍化应用。该技术能有效解决当前低空经济发展面临的低空网络覆盖不足和无人机监控能力不足的问题,不仅满足了低空飞行的通信需求,确保飞行器信息的实时传输与共享,还为飞行器的安全导航和精准作业提供了可靠保障,极大地推动了低空飞行活动及相关经济活动的现代化和智能化,为低空经济的蓬勃发展奠定了坚实基础。截至2024年第二季度,中兴通讯已经在国内25个省市完成超过40个低空通感试点项目,覆盖了物流配送,重点区域低空安防等多种应用场景,为低空经济高质量可持续发展保驾护航,例如在深圳人才公园,树立低空经济样板点;在南京滨江完成了5G-A最大规模低空通感一体组网;在杭州亚运会实现赛事低空保障。 中兴通讯AiCube训推一体机是用于大模型精调/推理的AI全栈一体化产品,开箱即用,实现本地训推、数据0泄露,具有快交付、易使用、高安全、全开放的优势。创新性主要体现在三大方面。第一,提供开放、高效、灵活的智算资源,让大/中/小规模企业用得起:全面适配业界主流的GPU和CPU,提供不同厂家多品类、多规格算力,精准满足差异化算力需求。第二,提供简单易用的训推平台,快速定制行业专属大模型:训推工程能力工具化,通过工具链实现大模型训推过程全流程贯通,向导式引导,过程可视化。第三,通过模型仓库和市场,实现AI能力共享和商业规模复制:AiCube训推一体机已在多个领域开展探索应用,包括研发代码生成、工业质检等。 星云通信大模型是中兴通讯全力打造的通信领域大模型,具备通信领域高质量语料、精准的领域增强训练技术、可迭代进化的Agents低成本工厂、大小模型协同以及多智能体协同、开放共享等特色能力。中兴通讯星云通信大模型,已融入中兴通讯uSmartNet自智网络方案,为网元内生智能、单域自治及跨域协同这三个维度予以赋能,支撑自智网络意图、感知、分析、决策以及执行等各个环节,加速迈向高阶自智,体系化支撑高阶自智网络演进。 高质量发展是新时代的“硬道理”。发展新质生产力是推动高质量发展的内在要求和重要着力点。新质生产力代表先进生产力的演进方向,是由技术革命性突破、生产要素创新性配置、产业深度转型升级而催生的先进生产力质态。新质生产力已经在实践中形成并展示出对高质量发展的强劲推动力、支撑力。 2024信息通信业“新质推荐”系列发布旨在激励更多企业投身到新质生产力的开拓创新中。通过本次活动发布不难看出,信息通信领域优秀产品、方案精彩纷呈,尤其在无线通信、算网创新、数字运营等领域,创新产品、前沿技术及解决方案层出不穷,这些优秀的产品和方案将促进信息通信业深度转型升级,助力数字经济繁荣发展。

河南移动完成全球首个多域5G-A智能化核心网现网部署

近日,河南移动携手中兴通讯率先完成5G-A智能控制面(NWDAF)现网部署,并成功实现多厂家复杂组网下的业务呼叫。该方案在5G核心网引入了5G-A关键能力,构建“5G智能控制面”,可实现智能实时感知、用户体验优化、智能策略控制等原子能力的拓展,强化针对不同场景的差异化网络保障,将给河南移动用户带来全新的网络使用体验。 面对通信场景的复杂化、业务需求的多样化、业务体验的个性化等多重需求,目前的5G网络仍缺乏足够的智能化,来提供按需的服务能力和更高的网络资源利用效率。促进AI泛在化,提升网络能力,正当其时。河南移动与中兴通讯致力于在5G-A领域进行持续创新和实践,历经实验室测试和外场试点,最终成功实现5G-A智能控制面现网部署。 在现网拓展原子能力后,通过业务体验感知和分析,可自动触发保障服务,确保用户始终享有流畅的业务体验,进而打造出“感知+保障”的联动循环体系。智能化原子能力面对马拉松、大型体育赛事、高铁等场景,网络直播、云游戏等业务,在网络高峰期为用户提供稳定且高质量的服务,解决河南移动在特殊事件中保障用户体验的难题。 河南移动5G-A智能控制面现网部署,是在5G-A技术探索过程中又一新的里程碑,也是河南移动不断加强服务能力的又一新举措。河南移动将继续联合中兴通讯,不断攻关新型网络架构、智慧内生等新型技术,共同打造智能普惠的新型信息服务,培育催生更多新产业、新业态、新模式,携手共创美好数智未来。
河南移动完成全球首个多域5G-A智能化核心网现网部署

中兴通讯全栈智算产品亮相2024世界人工智能大会

7月4日,2024世界人工智能大会(WAIC)在上海世博展览馆正式开幕,作为全球人工智能前沿技术的重要展示平台,此次大会汇聚了世界顶级科学家、全球AI领域头部企业以及各大研究机构,共商人工智能领域前沿技术和共享共治、AI向善的价值理念。 中兴通讯以“兴动灵识 智引未来”为主题,秉承开放解耦、以网强算、训推并举的AI生态理念,携全栈智算基础设施产品亮相本次世界人工智能大会,包括高性能AI训练服务器、推理服务器、全系列通算服务器、液冷服务器、分布式存储、高端多控磁阵以及训推一体机等产品,打造坚实的智算底座,全方位助推新质生产力的发展。 面对人工智能飞速发展的浪潮,各行各业纷纷开展数智化、智能化转型升级,全球共同迎来新一轮的生产力变革。我国2024年《政府工作报告》指出,要开展“人工智能+”行动,大力推进现代化产业体系建设,加快发展新质生产力。中兴通讯全栈全场景、开放解耦、绿色低碳的智算解决方案和产品,全链条多维度赋能“人工智能+”。 全栈全场景 在算力基础设施硬件产品方面,中兴通讯拥有全系列、多平台、全场景的服务器和存储产品。 其中,AI智算服务器支持插卡、扣卡两种GPU形态,适配国内外主流GPU加速卡,可以应用于大模型训练/推理、中小模型训练/推理等场景;全系列服务器支持国内外主流的CPU平台,拥有多种产品形态,基于硬件模块化设计和软件平台化设计,灵活多变,满足各行各业多种应用场景需求;存储产品方面,中兴通讯目前拥有分布式存储、高端多控磁阵、高端全闪磁阵、中高端混闪磁阵等全系列产品,满足人工智能时代海量数据存储需求。 此外,中兴通讯还打造了开箱即用的训推一体机AiCube,适用于本地训练/精调/推理等场景,助力企业轻松驾驭专属大模型。中兴通讯自研的定海芯片支持RDMA标卡、智能网卡、DPU卡等多种形态,为用户提供高性能、多样化的算力内核和加速硬件。在数据中心方面,中兴通讯依托风液融合、弹性配电等节能技术,打造PUE低于1.1、机柜功率密度最高达60kW的新型智算中心,为大规模集群的建设提供了坚实的基础。 开放解耦 人工智能时代,AI技术的飞速发展离不开繁荣开放的生态环境,中兴通讯打造开放解耦的智算方案,通过自主创新和开放解耦并举,打破技术壁垒,与产业上下游合作伙伴共同打造共享共赢的AI新生态。 其中在硬件产品方面,中兴通讯服务器全面适配业界主流GPU卡,实现换芯换卡不换座;同时支持异构算力统一管理,同厂家不同型号GPU或异厂家GPU混池调度,实现资源整合,保护既有投资,从而打造多元算力超市,算力资源按需使用,助力合作伙伴构建多样化、高算效的智算资源池。此外,中兴通讯推出AIS训推平台,实现工程能力工具化,简化大模型训练、精调和部署过程,加速AI应用创新;自研星云大模型,实现内部提效及对外赋能多场景落地,助力多方共赢。 绿色低碳 随着算力规模的高速增长,算力产生的功耗也在大幅提升,服务器的能耗和散热问题日益凸显,传统的风冷散热已无法满足AI高性能计算的散热需求,在双碳政策的背景下,绿色化、低碳化成为发展趋势。 中兴通讯液冷服务器,基于极致的产品设计,支持冷板式液冷和浸没式液冷两种液冷方案,在此次世界人工智能大会上,中兴通讯液冷服务器精彩亮相,其中浸没式液冷服务器支持单节点散热能力2000W+,CPU散热能力大于550W,配合数据中心全液冷解决方案,可实现更低的PUE,极致节能,绿色低碳。 面向未来,中兴通讯将通过全栈全场景的智算解决方案,构建开放解耦的AI新生态,兼顾自主创新和性能领先,打造高性能、高可靠的智算底座,携手产业伙伴以AI智算助力人工智能的进一步突破,推动新质生产力的可持续发展。
中兴通讯全栈智算产品亮相2024世界人工智能大会
5G先锋

5G SA大规模商用部署

首推全融合5G核心网

Top3 5G必要专利

丰富的交付经验

获得咨询公司高度评价

屡获通信行业大奖

业界荣誉

精彩视频