【天极网IT新闻频道】ChatGPT,魔法失灵了!
数据统计,在自今年1月以来,ChatGPT的访问量增速,正在节节下滑。
1月,131.6%;2月,62.5%;3月,55.8%;4月,12.6%;到了5月,就只剩2.8%。
如果说,前面几个月还是缓慢增长,那么到了6月,下滑已然出现,成为笼罩在ChatGPT头顶的一片阴云。截至6月20日,访问量比5月少了38%左右,也就是说,如无意外,到6月30日,ChatGPT的网页访问,将首次出现负增长。
此外,AceCamp数据更是显示,ChatGPT在内,几乎所有的AI聊天机器人,都已经出现用户增长停滞,乃至下滑。与年初的风光无量形成鲜明对比。摩根士丹利6月初的一项数据进一步补充,仅有16%的受访者使用过ChatGPT,4%的用户成为ChatGPT的重度用户。同一时期,谷歌Bard的使用人数,更是只有9%。
仅仅半年时间过去,大模型就从开局巅峰,走向下滑谷底,成为最短命的风口?
答案或许并没有这么简单。
01 ChatGPT,究竟怎么了?
ChatGPT数据真的下滑了吗?
或许这只是一个统计口径选择,带来的误会。
ChatGPT访问量下滑,出自一个叫做SimilarWeb的国外网站数据分析工具,该网站统计的口径来源为ChatGPT网站的访问量。
但众所周知,作为一个爆款AI应用,ChatGPT的客群,主要包括了两方面:其一,ChatGPT网站自身的C端用户;其二,使用ChatGPT对外API接口的各种下游B端应用。
也就是说,随着越来越多的APP使用ChatGPT的API接口,SimilarWeb的数据已经逐渐失真。
6月初流传出的一份闭门会议纪要,也佐证了这一猜想的正确:Open AI CEO 阿尔特曼表示,ChatGPT未来的核心战略使命,是吸引更多的企业应用程序接入API,而非在C端,与自己的企业客户争夺流量。
为什么要把自己从一个C端爆火的超级AI应用,变成一个听来并不性感的API企业?
一个非常基础的认知是,随着使用ChatGPT的时间增长,越来越多的用户发现,ChatGPT,其实并不像我们所想的那样万能。当我们用ChatGPT搜寻资料时,AI经常会凭空编造出一个并不存在的答案。有人用GPT-4做了个测试后发现,相同的问题,不同的提问阶段,GPT-4给出的回答不尽相同,甚至时间越近,错误率越高。
这是什么道理?针对这种通用大模型的“胡说八道”,科研界将其称作大模型的记忆幻觉。
所谓记忆幻觉,指的是,AI大模型所生成的内容,并不是来源于现实世界,而是大模型自己“想象”出的内容。比如AI给出的一些看似权威的论文、法律、名人、历史,经过检索,就会发现这些内容在真实世界中并不存在。
这种幻觉的来源,与大模型的底层逻辑有关——AI本身并不理解自己所说的内容,而是仅仅根据自己吸收的内容进行学习模仿。
那么这种AI幻觉,是否有可能被消除?
当前的方法,主要有三个流派:
其一,奖励AI的每个正确推理过程,而不只是简单的奖励推理结果。
其二,使用知识图谱,蒙特卡洛树搜索算法等方式,进行算法层面的改进;
其三,针对特定场景,使用垂直优质数据,训练出基础认知就能达到专家级的行业大模型。
第三种,其实也正是Open AI选择将越来越多精力转移到B端应用API接口的根本原因。
同时,这也正是无数AI大模型企业正暗中角力的另一隐秘战场。
02 API能解千愁吗?
尽管Open AI正将越来越多的精力放到更行业,更垂直的API应用之上,但业内的另一个观点则是:垂直API虽好,但却并不是一把万能的锤子。
开放API,仅仅意味着在将现成的模型开发好之后,给客户一个接口,所有的升级、数据来源,依旧是由Open AI 提供,这样的API接口,距离客户将其工程化落地,其实还有相当长一段距离。
众数信科CEO吴炳坤举了个例子“很多 AI 大厂现在不会将大模型微调为行业专用模型的能力开放出来。”但“站在客户角度,行业客户最为看重的是定制化的需求,以及AI企业的工程化落地能力。”
也就是说,如果想要AI更好落地,开放API接口是远远不够的,需要大模型企业将自己的底层模型直接开放给下游客户,让其基于大模型本身,进行微调或再训练,甚至直接参与到大模型的研发过程。
很显然,没有任何AI企业,愿意随意将自己的AI大模型底层核心技术随便开放给下游。
而众数信科的股权架构,则给予了他们能够深度参与行业,同时也能参与大模型定制化开发的能力。
天眼查数据显示,众数信科成立于2021年,专注于数字城市的数据及场景的产品定义和运营。其三大股东,分别是云从科技、厦门火炬创投、民生电商,其商业模式为无需财政付费、可自我造血的“政府搭台、国企主导、产业联合运营”数字经济新模式。
天眼查数据显示,众数信科成立于2021年,专注于数字城市的数据及场景的产品定义和运营。其三大股东,分别是云从科技、厦门火炬创投、民生电商,其商业模式为无需财政付费、可自我造血的“政府搭台、国企主导、产业联合运营”数字经济新模式。
得益于与云从科技之间的股东关系,作为一家专注于AI落地的创业公司,众数信科也能够参与到大模型的开发过程,甚至在云从从容大模型的基础上,训练出自己的专业模型。
这种基于通用大模型训练行业大模型的意义,在云从科技创始人周曦看来:如果没有强大的基础大模型,行业大模型将失去长期生命力以及成本控制力;如果只有通用大模型,就无法在具体需求上做到极致。
两者之间的关系,就像是武术中的内功心法以及外在招式;只有互相搭配,才能发挥出更高效用。
而这种内功心法与外在招式的内外兼修,也成了众数信科成立不久,就能接连拿下政企大单的底气所在。
03 落地才是硬道理
在联合云从,在从容大模型基础上定制自己的专属大模型后,困扰众数信科的第二个问题就变成了如何更快速的落地?
依旧是众数信科的股东结构,我们可以得到这个问题的答案。
三大股东:云从科技、厦门火炬创投、民生电商,云从提供用于微调的底层大模型,厦门火炬创投提供下游产业化落地的上下游撮合,民生电商提供资金支持。
有了技术,有了产业链资源,也有了钱,距离大模型真正落地就只差最后一步,用于训练行业大模型的数据。
这正是众数信科的强项。过去两年,通过搭建“众寻知识智能化平台”的技术优势和“i城市生活平台”两大平台,其中,“i城市生活服务平台”已经签约16个城市,服务覆盖3000万的个人用户和数十万的企业用户,让众数信科积累了丰富的行业语料数据。
基于以上技术、资源、资本以及语料库层面的优势,众数信科当前在城市生活服务领域,教育、养老和文旅三大场景跑出了自己独特的优势。
以城市生活服务中的海关政策智能AI解读这一细分领域举例:
对众多跨国公司,以及跨境电商企业来说,单是一个基础的入关清关,就需要拆分成订单申报、支付申报、运单申报、清单申报、三单对碰多个环节,每个环节都涉及到不同的部门、法规以及政策文件,如何跟上这些不断变化的政策以及数千份文件,需要企业花费巨大的精力以及投入,而对海关来说,大量的咨询以及政策变动,也会导致他们人力资源的紧张。
如果有AI的帮助,入关清关的准备工作,就能够被大大简化。
通过多年积累以及大模型加持,众数信科打造了用于海关通关政策问答应用“海关政策 AI 精灵”。基于海关总署2000多份材料, “海关政策 AI 精灵”形成了本地的知识库,通过语义分割、语义检索、 实现 prompt learning ,构造精准提示词,让模型能精确地按照本地的知识库来回答用户的问题。
这一思路,一方面可以明确提问者问题所涉及的具体政策文件;另一方面,彻底解决大语言模型存在的 知识局限和数据偏见问题,让解答更专业。
另外,针对政策的变化,“海关政策 AI 精灵”还可以根据政策调整和变化更新本地知识
库,同时通过用户的问答的正、负反馈意见,实现基本RLHF( Reinforcement Learning from Human Feedback )的模型优化与微调。
在教育领域,众数信科还开发了”智能教育AI精灵”,在厦门地区的部分学校、教育培训机构试点使用,从AI内容生成辅助教学切入,充当教师的教学助手,并为学生做出千人千面的发展评价,未来逐步实现因人施教,着力打造优秀教师数字分身,将先进地区优秀教学经验通过AI学习传承复制,解决三四线城市的教育资源匮乏问题。
04 大模型没有失灵,但死亡谷正在加速到来
上世纪九十年代,美国航空航天局(NASA) 发布了一份《TRL白皮书》 (Technology ReadinessLevels,缩写为TRL),将技术的成熟度,分为九个等级:
1基本原理被发现
2形成技术概念或初步应用方案
3进入关键功能实验室验证阶段
4技术方案在实验环境中验证
5技术方案在相关环境中验证
6技术方案在模拟环境下系统验证
7真实环境下的系统演示
8定型试验
9运行与评估。
在这9个等级中,高校与机构科研人员擅长1-3环节下的基础研究;企业为追求利润,更倾向于进行8-9环节中的具体产品设计与生产,相应地,中间的4-7环节,就成了所有技术从实验室走向行业普惠中间的死亡之谷。
如今的大模型,死亡之谷正加速到来。
如何让大模型在应用中真的降本增效,如何让中小企业也能用得上用得好AI,如何减少大模型应用中的AI幻觉,这些都是死亡谷中,一个又一个必须解决的现实问题。
这些问题,既不像ChatGPT可以在短时间内,吸引全世界的目光,也没像最早发布大模型论文提出通往AGI可能性一样的性感。跨越死亡谷的解法只有一条,一步步夯实通用大模型基础,深耕行业,让AI从高高的神坛走下,成为普惠每一个普通人生活的基础设施。
类型:广告
免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。
原文链接:http://news.yesky.com/hotnews/205/2147466205.shtml