华为云CTO张宇昕:2026年将有超80%的企业在生产环境中部署AIGC应用

风云天地 2024-02-28 83151人围观

2月25日,主题为“一切皆服务,加速千行万业智能升级”的华为云峰会在巴塞罗那召开。在会上,华为云CTO张宇昕表示:“据预测,到2026年将有超过80%的企业在生产环境中部署AIGC应用,有70%的设计和开发工作被AIGC改变。到2028年,将有75%的企业软件工程师使用AI编程助手,2023年初不足10%。”

张宇昕认为,大模型落地到行业是一项复杂的工程,需要通过系统性创新,来帮助各行各业加速智能化。一方面是AI for Cloud,华为云通过AI和大模型来重塑行业的各种应用,同时也重塑华为云服务,比如软件开发、数字内容开发等,为客户提供更好的体验。另一方面是Cloud for AI,华为云通过架构的创新,AI Native存储以及数智融合等,让企业能够更高效便捷的训练和使用大模型等AI技术。

华为云CTO张宇昕:2026年将有超80%的企业在生产环境中部署AIGC应用

据介绍,在去年7月份的华为开发者大会上,华为云发布了盘古大模型3.0。和ChatGPT等很多大模型不一样,盘古大模型为了更好的满足企业的各类需求,提供5+N+X的三层解耦架构:L0层有5个基础大模型,提供满足行业场景的多种技能;L1层是N个行业大模型,提供使用行业数据训练的行业大模型;L2层为客户提供更多细化场景的模型,它更加专注于某个具体的应用场景或特定业务。

“我们通过分层解耦的AI能力及工具,为不同行业解决各类难题。”张宇昕说。

汽车大模型助力自动驾驶

在汽车行业,自动驾驶领域中最难的是需要经历各种复杂场景,这些场景需要基于数万辆车、每辆车数十万公里进行路测收集。

“现在使用盘古汽车大模型,可以自动生成各种复杂场景,让自动驾驶学习新复杂场景的周期从两周内缩短到2天内,重塑自动驾驶的训练。基于实际场景采集的照片和视频,盘古大模型可构建该场景的数字孪生空间,加入可移动的物体、可编辑的天气、光照等,生成供自动驾驶学习的场景样本,如借道超车发现对向来车、道路中出现动物等。”张宇昕说。

据介绍,汽车大模型除自动驾驶外,还覆盖了汽车设计、生产、营销、研发等业务场景,让车企员工的工作更高效,更轻松。

气象大模型精准预测天气

在气象领域,预测台风路径的传统方式是采用数值计算的方法,能预测台风未来10天的路径,而这需要在3000台服务器组成的高性能计算机集群上花费4到5小时完成计算。

张宇昕表示:“现在基于盘古气象大模型,通过AI推理的方式,只需要在单台服务器上,10秒内就可以给出更精确的预测。除了台风以外,盘古大模型还能进行降雨、寒潮等极端天气的预测。”

据了解,2023年的世界气象大会上,欧洲气象局展示了芬兰寒潮预测,而盘古气象大模型比欧洲现有预报系统IFS提前两天预测到了寒潮的到来,预测结果更加接近寒潮实际来临时的零下29度。目前,欧洲气象局已将盘古气象的输出作为校验IFS的参考系统之一。盘古的气象预测能力也得到了科技界的高度认可,国际科技期刊《nature》正式刊发了盘古大模型的相关文章。

为每个播客量身打造数字人

当前,数字人被广泛应用于电商、新闻播报、教育培训等领域,大幅提升了信息传递的效率。张宇昕称,盘古数字人大模型可快速为每个播客打造“自己的数字人”,并基于十万级高质量直播对话数据预训练,驱动数字人准确、流利地介绍产品,同时数字人还可与直播间的观众实时互动。

“盘古数字人大模型支持用母语训练一次,就可以说20多国语言。它不仅可以帮助商品在全球流通,也可以为多国员工和客户进行产品培训。”张宇昕说。

让开发者“一句话形成代码”

在研发领域,盘古研发大模型可以帮助开发者实现一句对话生成代码、一个按键生成测试用例、一次点击生成注释、一条指令完成部署。

“今天我们带来全新升级的CodeArts Snap,加强了代码检视和优化能力,并接入到CodeArts软件开发生产线的全流程23个开发工具中。让程序员的代码产出提升50%。效率提高的同时,也让代码更符合编程规范和代码可信。”张宇昕表示。

据了解,盘古研发大模型已经接入到Astro低代码平台,通过对话的方式就可以开发应用,全面重塑了软件开发,让业务人员也可以成为开发者。

除了以上的行业和领域,盘古大模型在制造、矿山、医疗、金融、铁路等不同行业都已经有了深厚实践,助力千行百业提升工作效率、提升服务质量。

大模型时代对算力提出全新要求

“大模型及相关应用是迄今为止最复杂的软硬件系统工程,我们在大模型的技术探索过程中洞察到,大模型时代对算力有着全新的要求:第一,联算比,未来需要全新的网络互联技术来解决运算量和GPU算力之间的巨大差距;第二,容算比,当前在模型训练过程中为获取足够显存容量,存在不必要的GPU算力闲置;第三,存算比,当前在模型训练过程中,大量的时间消耗在GPU数据加载,造成算力的进一步浪费。”张宇昕说。

基于上述洞察,华为云提出云的系统架构将从“以CPU为中心的主从架构”向“多元算力对等架构” 跃迁,突破算力、存储和网络的边界,实现多元算力的对等全互联,为客户提供更好的AI算力基础设施。

数据表明,大模型所需算力每18个月会增加10倍,已远超通用算力每18个月翻倍的摩尔定律,在这一背景下,如何获取超大规模、高效长稳的AI算力?

张宇昕表示:“我们认为云服务将成为AI算力的最佳供给方式。华为云在中国已经部署了3大AI计算集群节点及30+分节点,提供超大规模集群,支持万亿级模型。马上即将再新上线香港节点,支持全球客户的AI算力需求。提供长稳的AI算力服务,千卡训练30天不中断,长稳率达到90%。此外,通过我们的AI开发平台ModelArts,我们能够对故障进行快速诊断和恢复,断点恢复时长不超过10分钟。”

据介绍,华为云还打造了全流程工具链,包括数据工程套件、模型开发套件、应用开发套件,为大模型开发提供端到端工具支持,帮助企业大幅降低大模型开发门槛。

除此之外,大模型有海量的训练数据和庞大的参数,对存储也提出了新的挑战,如何解决存储难题?

张宇昕称,首先,华为云独创了具备220TB超大带宽和微秒级超低时延的内存服务EMS,以此支持GPU的内存扩展,可以容纳PB级超大规模参数,让参数“存得下”。其次,华为云基于SFS Turbo文件存储技术的大并发、高吞吐缓存服务,可提供千万级IOPS,将10亿条数据和元数据的准备时间从100小时缩短至5小时,让数据准备速度快。最后,基于OBS对象存储技术构建的低成本大容量知识湖服务,通过深度归档、智能存储分级和存储管理统计实现数据精细化管理,实现了训练和推理数据的存储成本降低30%,让海量数据“存得起”。

校对:冉燕青