广告
图片生成中,请稍候...

AI革命来了!谷歌每月处理480万亿token,你还在用老眼光看AI?

文章摘要:全球企业级AI推理用量呈指数增长,谷歌、微软等巨头处理的token数量惊人,远超预期。随着模型使用扩展和应用场景丰富,AI商业化正进入爆发期。

大家好,我是你们的老朋友。今天咱们聊聊一个特别有意思的话题——AI行业正在发生的一场静悄悄但意义重大的变革。你可能每天都在刷各种新闻,看到AI又出了什么新模型、有什么炫酷功能,但真正推动整个行业往前走的,其实是那些看不见摸不着的数据背后的故事。

先说个重点:全球企业级AI推理用量正在疯狂飙升,而且它的商业变现能力远远超出我们的想象。很多人只盯着模型更新换代看热闹,却忽略了这个更关键的趋势。

你知道吗?像SemiAnalysis的Dylan Patel就说过,很多AI服务尤其是推理API,利润高得吓人,有时候毛利率能飙到75%以上。这在圈内其实早就不是秘密了,只是外界被各种发布会和炒作分散了注意力。

当然,普通用户的订阅服务也能赚钱,但问题在于重度用户可能会让公司成本失控。毕竟训练顶尖模型需要大笔投入,这不是谁都能玩得起的游戏。不过就算模型不变,使用量也在蹭蹭往上涨,而且大部分都处在盈利区间。

有趣的是,早在今年上半年我们看到一系列重大突破之前,AI的使用就已经开始爆炸式增长了。比如推理模型的回答长度从几百个token扩展到了数万个token,这就直接导致数据曲线变得更加陡峭。而这些模型通常都是按token收费的,所以用得越多,收入自然也越高。

说到这儿,不得不提一下谷歌在今年I/O大会上展示的强大实力。他们的主题演讲堪称一场AI“国情咨文”,覆盖了模态、硬件形态以及任务等多个维度。谷歌的目标很明确:要在几个特定领域拔得头筹,在其他领域也要保持前三名的位置。这种全面性是其他公司很难比拟的。

I/O大会上的亮点包括对标OpenAI o1 Pro的产品Gemini Deep Think、新的多模态模型如带音频功能的Veo 3,还有对标Meta和苹果的增强现实头显演示,以及新版Gemini 2.5 Flash。说实话,这些方向我们早就看到了,但谷歌推进的速度还是让人吃惊。

最震撼的是那张幻灯片,展示了谷歌所有AI平台处理的token数量,最近几个月简直是坐上了火箭。二月份拐点出现时,月处理总量约为160万亿token;到了四月份,这个数字已经飙升到480万亿+,眼看就要冲上1000万亿大关。换算成每秒的话,大概就是1.5亿到2亿token。相比之下,谷歌年搜索量才5万亿次,也就是每秒10万次搜索,每次搜索平均用1000个token。

谷歌目前最大的AI产品还是基于Gemini模型的搜索概览功能,他们一再强调用户非常喜欢这个功能,覆盖人群超过十亿。而且谷歌每月生成的token数量已经超过了Common Crawl的数据量。Common Crawl可是开放网络快照的标准,也是AI预训练数据集的重要来源。预计一两年内,谷歌单日处理的token量就能达到Common Crawl的规模。

这篇文章还拿谷歌的数据和其他公司做了对比。比如微软CEO萨提亚·纳德拉就在财报会议上提到,Azure AI服务本季度处理了超过100万亿token,同比增长5倍。虽然谷歌的数据几乎是Azure的10倍,但要知道谷歌起步比微软晚得多。

至于OpenAI,由于是私营公司,数据比较滞后。不过根据Sam Altman去年在X上的说法,OpenAI每天生成约1000亿个单词,相当于每月4万亿token,差不多是谷歌2024年4月数据的一半。

不仅是西方企业,中国的字节跳动、百度等公司也在快速跟进,进入每日1万亿token的量级。当Anthropic或OpenAI分享那些看似夸张的收入预测时,也许我们真的该多信几分。

还有一个值得关注的趋势是,一些处于测试阶段的功能,特别是编码智能体,正在推动token数量飙升。Claude Code、Codex、Jules这些工具每次运行几分钟就会消耗大量文本token。我和朋友估算过,一次深度研究查询可能消耗约100万token进行推理。很快,单个任务将消耗1000万甚至1亿token,而仅仅两年前,一次惊艳的ChatGPT查询也就100-1000个token。

总的来说,现在正是做token销售生意的好时候,但这仅仅是开始。AI行业的这场变革正在实实在在地发生,而且速度远超我们的预期。

广告