首页 > 行业研究 > 正文

华为这次又跑在了前面?正式宣布核心突破,外媒:又晚了一步

2023-08-03 07:10:50来源:燃烧新科技

“人工智能”或许我们已不再陌生,但Chat GPT又有多少人真正明白呢?

2022年Chat GPT一夜火爆,不仅成为了网络热词,更是在科技界掀起了一个新的热潮,“千模大战”正式开始,而作为国内最受关注的科技企业—华为,这一次也是率先接下了AI博弈的大旗。

当然国内的各大科技企业在第一时间也是想在Chat GPT插一脚,纷纷推出自己的产品,其中包括阿里的“通义”、腾讯的“混元”、百度的“文心千帆”,以及华为的“盘古”。


(相关资料图)

但是华为的“盘古”与Chat GPT并非一同,华为云 CEO 张平安的话讲就是:"盘古大模型3.0不写诗,只做事"。

其实华为在大模型算力供不应求的当下,早先布局的 AI 算力集群和芯片、数据储存产品,迅速在国内的AI行业中充当起"承重墙"的角色。而华为这一次也彻底在大模型板块中“一马当先”

在7日,华为开发者大会上,盘古大模型3.0正式问世,并针对不同的场景,推出了一套由“L0、L1、L2”三个层级构成的独特框架,或许很多人会疑惑,为什么华为不搞Chat GPT反而走“大模型”之路呢?

其实大模型的发展早已成为业内的定局,也是阿里、腾讯、百度等科技企业共同的方向,在华为发布不久后,各大互联网企业也推出了相对的大模型板,但是华为依旧处于“一骑绝尘”的位置。

正如华为轮值董事长胡厚崑所说"大模型训练的效率或创新速度,根本上取决于算力的大小"

在人工智能的核心技术中,大模型训练起着至关重要的作用。算力的深耕也是华为在AI板块上一张战无不胜的王牌。

7月14日,华为发布了一系列针对大模型时代的AI存储新品,为各类模型训练和推理提供了最优的存储解决方案,为AI的发展注入了新的动能。

这次发布的两款新品分别是OceanStor A310深度学习数据湖存储和FusionCube A3000训/推超融合一体机。华为数据存储产品线总裁周跃峰在发布会上表示:“大模型时代,数据决定了AI智能的高度。作为数据的载体,数据存储成为了AI大模型的关键基础设施。我们已经看到了行业对于构建存储中心的需求。”

OceanStor A310深度学习数据湖存储,以其卓越的性能和可靠性,为大模型训练提供了强有力的支持。它拥有高密度的存储能力,能够容纳海量的数据,并通过高速的数据传输通道,实现快速的数据访问和处理。同时,它还具备智能化的数据管理功能,能够根据不同的模型需求,灵活地进行数据的存储和调度,提高模型训练的效率和精度。

而FusionCube A3000训/推超融合一体机,则将存储和计算功能融合在一起,为模型训练和推理提供了更加高效的解决方案。它采用了华为自主研发的鲲鹏处理器,具备强大的计算能力,能够快速地完成模型的训练和推理任务。同时,它还支持分布式存储和计算,能够实现多节点之间的数据共享和协同处理,进一步提高了系统的性能和可靠性。

这两款新品的发布,标志着华为在人工智能领域的技术实力和创新能力。作为全球领先的科技公司,华为一直致力于推动人工智能技术的发展和应用,为社会的进步做出了巨大贡献。而这次发布的AI存储新品,不仅满足了当前大模型训练的需求,更为未来的人工智能发展奠定了坚实的基础。

在大模型时代,数据存储成为了人工智能发展的关键环节。只有拥有高效、可靠的存储解决方案,才能够支撑起庞大的模型训练和推理任务。而华为的AI存储新品,正是为了满足这一需求而诞生的。它们以其卓越的性能和智能化的功能,为大模型训练提供了最优的存储支持,为人工智能的发展注入了新的活力。

作为一个全球科技巨头,华为始终将技术创新和用户需求放在首位。通过不断地推出创新产品和解决方案,华为为人工智能的发展做出了积极的贡献。

随着AI板块的不断推进,越来越多的企业会迎来不同的突破,华为目前虽然处于优势地位,但未来依旧充斥着刺激的竞争,AI行业随时会面临着改变,而AI板块的这一场博弈却只是刚刚开始!

关键词:

责任编辑:孙知兵

免责声明:本文仅代表作者个人观点,与太平洋财富网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有问题,请联系我们!

关于我们 - 联系方式 - 版权声明 - 招聘信息 - 友链交换 - 网站统计
 

太平洋财富主办 版权所有:太平洋财富网

中国互联网违法和不良信息举报中心中国互联网违法和不良信息举报中心

Copyright© 2012-2020 太平洋财富网(www.pcfortune.com.cn) All rights reserved.

未经过本站允许 请勿将本站内容传播或复制 业务QQ:3 31 986 683