最近很多人问,为什么国外免费的ChatGPT国内要收费?
首先要说明的是,OpenAI公司开发的ChatGPT, 除了免费模式,它还有两种收费模式:
1、免费模式,面向所有用户开放ChatGPT3.5模型的功能,免费模式下使用ChatGPT会面临线路拥挤的问题,因为ChatGPT用户数激增, OpenAI 公司的算力跟不上,所以免费模式到了一定使用次数,回复效率会非常低下,甚至高峰时段挤不进去。
2、一种是网页版面向个人用户的会员模式,这种使用体验下来,比免费回复内容要快并且连续不掉线,每个月收取固定的会员费,并且ChatGPT4.0向所有付费用户开放。非常适合需要平时使用ChatGPT频次非常高的企业或个人用户。
3、另外一种是面向广大开发者的收费模式,这种模式允许开发者同过程序的API接口,将ChatGPT整个到自己的网站、APP或者小程序当中,来为自己的客户提供服务,这种模式下是按照用户请求ChatGPT所使用的token数量来收费的。我们可以把token理解成一个汉字或英文单词。
下图是ChatGPT3.5的收费标准,代币就是token ,下图中1K 代币也就是1000tokens约等于1000个汉字的价格
了解了以上情况,我们说一下国内版ChatGPT,国没有正式版的ChatGPT网页服务,所谓的国内版ChatGPT其实就是上述第三种情况,一些开发者利用OpenAI提供的ChatGPT的API接口,将ChatGPT整合到自己的网站,APP或者小程序,来提供给大家服务。开发者需要向OpenAI支付,相应请求Tokens数量的费用,比如网站一个小时内总共的请求汉字在10万字,那么需要性OpenAI支付0.2美元分服务费,那么开发者会向他的用户收取更多的费用。所以这也是为什么国内版ChatGPT收费的原因了。
其实,你如果个人有ChatGPT账户,你可以看到自己账户里有5美金,这个钱就是系统送你用来体验开发者模式的,当你使用ChatGPT的API接口时,系统就会根据你请求的文字数量从这5美金中扣费。
需要注意的是:ChatGPT在计算token数量时,会同时计算用户的请求和模型返回的文字数量,来确定整个请求-响应交互过程中消耗的token数量,所以控制ChatGPT回复字数限制也能节省tokens消耗。
原文链接:https://zhuanlan.zhihu.com/p/627507702