7 月 7 日,在华为开发者大会(Cloud)期间,华为正式发布盘古大模型 3.0。华为云 CEO 张平安表示,不同于时下流行的 ChatGPT,盘古大模型 3.0 是一个完全面向行业的大模型系列,包括“5+N+X”三层架构:
L0 层包括自然语言、视觉、多模态、预测、科学计算五个基础大模型,提供满足行业场景中的多种技能需求;
L1 层是 N 个行业大模型,华为云可以提供使用行业公开数据训练的行业通用大模型,包括政务,金融,制造,矿山,气象等大模型;也可以基于行业客户的自有数据,在盘古大模型的 L0 和 L1 层上,为客户训练自己的专有大模型;
L2 层则提供了更多细化场景的模型,专注于政务热线、网点助手、先导药物筛选、传送带异物检测、台风路径预测等具体行业应用或特定业务场景,提供“开箱即用”的模型服务。
张平安介绍,盘古 3.0 为客户提供 100 亿参数、380 亿参数、710 参数和 1000 亿参数的系列化基础大模型,同时提供全新能力集,包括 NLP 大模型的知识问答、文案生成、代码生成,以及多模态大模型的图像生成、图像理解等能力,客户和合作伙伴能够直接调用。
根据华为现场展示的气象行业案例,过去预测台风未来 10 天的路径,要花费 5 小时、在 3000 台服务器的高性能计算机集群进行仿真。而在预训练盘古气象大模型的支持下,只需单台服务器上单卡配置,10 秒内就可以获得更精确的预测结果。
张平安在接受媒体采访时表示,不想拿盘古大模型和 ChatGPT 相比。“Chat 意为聊天,但我们没有时间聊天。参数再多、对话能力做得再好,但如果解决不了实际问题,也没有多大用处。AI 最不应该替代的就是作诗作画,这是人类应该呈现的东西,为什么要把它交给机器?”
华为之所以切入行业大模型,一方面是基于过去在 To B 领域的经验,另一方面也将得益于华为在算力基础设施上的布局。算力是大模型必不可少的“发动机”,盘古大模型的算力则来自 华为昇腾AI 集群。
华为公布的数据显示,目前基于昇腾 AI 澎湃算力,原生研发、适配的大模型超过 30 个,占据中国大模型近一半数量。
在近日举办的世界 人工智能 大会上,华为宣布昇腾 AI 集群全面升级。集群规模从最初的 4000 卡集群扩展至 16000 卡。华为称,这是业界首个万卡 AI 集群,拥有更快的训练速度和 30 天以上的稳定训练周期。
发布会上,华为昇腾AI 云服务也正式推出。据介绍,昇腾 AI 云服务提供 2000P FLOPS 的算力,支持主流 AI 框架和 90% 以上的算子,训练效率高于业界主流 GPU 的 1.1 倍。
华为昇腾 计算业务总裁张迪煊在接受界面新闻等媒体采访时表示,现在国内算力需求旺盛,许多大厂能拿到算力,但许多小企业拿不到。张平安也提到,目前 英伟达 芯片货期长、价格高昂,华为希望为行业提供另一种选择。
华为在算力基础设施上投入颇高。目前,华为已在上海、武汉、西安等 25 个城市,基于昇腾 AI 建设了 人工智能 计算中心,提供算力基础设施服务。
张平安表示,华为在算力方面的投入非常大。“如果用(算力)的人少,我们就会亏。但不能因为现在亏损,我们就不投入。相信我们把 AI 的生成算力做好了之后,中国很多 AI 算力都会用我们,现在谈收益还为时太早。”
(文章来源:界面新闻)
原文链接:https://finance.eastmoney.com/a/202307082774761978.html
原文链接:https://smtoai.com/5062.html