广告

OpenAI员工爆料:已抢先体验GPT-5,7月上线,疑似完全多模态

文章摘要:OpenAI员工疑似提前体验GPT-5,引发全网热议。奥特曼关注的神秘账号透露试用震撼大模型,网友猜测正是GPT-5。多消息称其已开启灰度测试,支持语音、图像、视频等多模态输入,推理能力更强,幻觉更少,或将重塑人机交互方式。今夏发布在即,AGI之路再进一步。

【导读】GPT-5,已经被OpenAI员工抢先用上了?就在今天,奥特曼在X上关注了一个神秘人,引起全网猜测。不止两人爆料,自己可能提前体验了GPT-5,甚至也有网友疑似被灰度测试到了。今夏推出的GPT-5,已经掀起全网疯狂!

就在今天,关于GPT-5的讨论再度火了,X上的神秘爆料满天飞。

起因是这样的,Sam Altman在X上关注了了一个叫Yacine的人。

这个人说,自己刚刚试用了一个AI公司的大模型,体验非常震撼。他敢打赌,没有任何人能预料到前方即将来临什么样的风暴。

而另一位「Aidan」,也在这个帖子下面发言说,自己有同样的经历。

很多人猜测,他们测试的就是GPT-5。

原因在于,Aidan就是OpenAI的员工,而Yacine刚刚被xAI解雇,却忽然被奥特曼关注了,两人同时这样说,绝对不是巧合。

有很大可能,他们已经提前获得了GPT-5的访问权限。

甚至,他们看到的东西一定非常惊人,这可能就是互联网崩溃的前一刻。

另外还有知情人表示,Yacine一直在考虑创办一家初创公司,现在Altman关注了他,或许是打算挖他到OpenAI?

总之,如今全网再次陷入讨论GPT-5的热潮。

GPT-5,已开始灰度测试?

其实不怪网友多心,因为有越来越多的人,晒出了自己似乎被灰度测试GPT-5的经历。

比如这位网友,发现自己在使用OpenAI的模型时,被灰度到了一个全新的AI。

在没有提示的情况下,它就可以连续思考3分钟,同时还进行了大量搜索。

同样也是在26号,另一位网友发现,如果选择的模型是4o,ChatGPT会开始思考。这就让人怀疑,OpenAI是不是正在悄悄过渡到GPT-5。

GPT-5 今年夏天发布

此前在OpenAI播客中,奥特曼对于GPT-5的发布时间已经比较确定了——「可能是今年夏天的某个时候」。

而在一周前,奥特曼也出现在了YC在旧金山举办的AI创业学校活动中。

在采访中他这样透露:GPT-5会迈向完全多模态!

具体来说,预计今年夏天推出的GPT-5,是一个多模态模型,支持语音、图像、代码和视频等多种输入方式。

GPT-5不会完全实现OpenAI对未来模型的终极愿景,但将是过程中的重要一步。

而GPT-5系列模型的最终愿景,就是一个完全多模态的集成模型。

它将具备深度推理能力,能进行深入研究,生成实时视频,以及编写大量代码,即时为用户创建全新的应用程序,甚至渲染提供用户交互的实时视频。

当这一切实现时,将带来一种全新的计算机界面——几乎「消失」,变得无感。

再早些时候,在今年2月,奥特曼还曾在X上发文表示,OpenAI的一大目标,就是通过创建能使用所有工具、知道何时长时间思考或不思考的系统,来统一o系列和GPT系列模型,使其胜任广泛任务。

GPT-5模型将在ChatGPT和API中发布,整合语音、canvas、搜索、Deep Research等功能。

对于GPT-5,网友们也有诸多预测,有很多人觉得,它将成为首个真正的混合模型,可以在响应过程中在推理和非推理之间动态切换。

总结来说,它的关键特点是多模态、100万token的上下文、推理+记忆、更少的幻觉,以及o系列和GPT模型的融合。

可以说,它就是智能体的未来。

还有人预测,GPT-5的进步主要集中在以下几方面。

- 视频模态更「原生」,输入更自然;

- 智能体性能至少提升了50%,归功于 强化学习 的深度使用;

- 拥有更强的理解能力与直觉,特别是在任务链式执行或将多个已学行为组成更复杂任务的能力上;

- 可能出现层级结构(Hierarchy);

- 不只有「选择合适模型」这种小把戏,而是有VLM-VLM这样的架构,用小而快的VLM代替大型VLM,以提高通用性、速度和响应能力。

不过,倒是也有OpenAI内部员工自曝说,其实内部最多也就比公开可用的模型领先两个月,所以GPT-5不会有巨大的飞跃,只是略有提升而已,不同的是会与许多工具集成。

而就在一个月前,也有GPT-4.1的核心研究员Michelle Pokrass揭秘了GPT-5进展。

她透露说,构建GPT-5的挑战就在于,在推理和聊天之间找到适当的平衡。

她表示,「o3会认真思考,但并不适合进行随意聊天。GPT-4.1通过牺牲一些闲聊质量来提升编码能力」。

「现在,目标是训练一个知道何时认真思考、何时交谈的模型」。

同时,她还首次对外介绍了更多关于GPT-4.1背后开发过程,以及RFT在产品中发挥的关键作用。比如,在提升模型性能方面,GPT 4.1聚焦长上下文和指令跟随。

另外,微调技术在GPT 4.1扮演着重要角色,RFT(强化微调)的出现,为模型能力拓展带来新的可能。与传统的SFT相比,RFT在特定领域展现出了强大的优势。

奥特曼对核心团队采访:预训练GPT-4.5

在4月份,Sam Altman对团队核心技术的采访,也曾交代了一些关于GPT-4.5预训练的「知识」。

在采访中,部分回答了为什么「预训练即压缩」能通向通用智能?

indigo发帖表示:智慧的核心在于学习者通过压缩与预测,逐步捕捉到世界本身的结构性并内化为知识。

1. 所罗门诺夫启发

访谈中提到一个概念:Solomonoff Induction(所罗门诺夫归纳):

在所有可能描述(或解释)数据的「程序」中,越简单的程序,先验概率越大。还能通过贝叶斯的方式,不断更新对数据的解释。

在语言模型中,每成功多预测一个字或词,就意味着它找到了训练数据里的某种内在结构。

2. 更多「正确压缩」意味着更深层的理解

访谈里也多次强调:在多领域、多种上下文的数据中,模型反复预测(即查找「最优压缩」),就会逐渐学习到跨领域的抽象概念与关联。

这也就是大家常说的「涌现」或「通用智能」

3. 预训练与后续「微调/推理」策略的互补

预训练+定向的监督微调(或强化学习),则能让模型在某些推理、逻辑或任务场景下更加精准。

这两者结合,形成了GPT系列模型强大的通用能力。

Mark Chen:AGI不仅是ChatGPT

无论如何,GPT-5的发布,必将给AI圈再次带来一场风暴。

显然,OpenAI的设想十分有野心。

在此前的一篇采访中,OpenAI首席华人研究科学家Mark Chen,就谈到了OpenAI通往AGI之路。

在公司的七年中,他领导了多项里程碑式的项目——o1系推理模型、文本到图像模型Dall-E,以及融入视觉感知的GPT-4。

在谈及AGI之时,Mark Chen表示,「我们采用非常广泛的定义,它不仅是ChatGPT,还包括了其他东西」。

一直以来,OpenAI将AGI视为AI的圣杯,并制定了五级框架来实现这一目标。

而现在,他们已经到达了第三级,智能体AI(Agentic AI)——能自主执行复杂任务和规划。

Mark Chen介绍称,OpenAI近期推出的两款AI智能体产品,Deep Research和Operator尚处于早期阶段。

Operator在未来,速度可以更快,轨迹可以更长,这些产品代表了OpenAI对智能体AI的雄心。

从这些内容中,我们或许也能隐约窥见GPT-5的端倪。

Ilya和Murati都在干啥

话说回来,最近OpenAI出走的两大高管Ilya和Murati也分别有了动静。

比如有媒体刚刚曝出,到处疯狂邀人的小扎,曾给Ilya发出一份价值320亿美元的「令人心动的offer」。

不过,Ilya看都不看一眼,大义凛然地拒绝了!

如此决绝地拒绝巨额收购要约,说明Ilya已经坚定决心,要独立推动AI的边界。显然,他正在追求比薪水更重要的东西。

相信SSI的首个模型/产品发布的时候,全世界都会为之震撼。

如今,成立仅一年的SSI已经成为AI领域中最受瞩目,也是最神秘的名字之一。

没有公开产品,没有演示,只有20多名员工,但在今年4月已经以320亿估值融资了20亿美元。

关于SSI我们仅能知道的线索是,它的使命是开发一个安全、对齐的超级智能AI系统,跟OpenAI日益商业化的方向形成了鲜明对比。

而就在几天前,前OpenAI CTO Murati创建的的Thinking Machines Lab(同样并无产品估值近百亿),被曝使命是「商业领域的RL」。

具体来说,公司将为企业提供定制化AI服务,重点是强化学习,专门针对收入或利润等关键绩效指标进行训练。

而且TML并非从零开始开发所有功能,而是依赖开源模型,将模型层进行整合,并使用谷歌云和英伟达服务器。除了B2B产品外,TML还计划推出一款消费产品。

这些从OpenAI出走的人才「散是满天星」,都在以不同方式向AGI前进。

AGI之日,人类之末日?

而就在最近,在美国国会的听证会上,Anthropic联创Jack Clark表示:「未来18个月内,将会出现极其强大的AI系统。」

Jack Clark:Anthropic联合创始人及OpenAI前政策主管

他认为,所谓「强人工智能」可能比许多人想象的要早。

Clark表示,美国具备领先开发这种技术的条件,但前提是妥善应对随之而来的安全风险:

Anthropic认为,未来18个月内将会出现极其强大的AI系统。到2026年底,我们预计真正具有变革性的技术将会问世。

……

我们需要建立联邦立法框架,为我们指明清晰连贯的前进路径。

……

如果没有联邦层面的统一框架,我担心会形成监管真空 ……

因此,我们必须通过联邦框架找到前进的道路。

在这次听证会上,多位专家预测了AI时间表和未来风险。

Clark介绍了Anthropic进行的AI实验。

在模拟场景中,他们给Claude模型设置了极端的「死里逃生」情境——

AI模型被告知即将被一个新AI取代,同时它掌握了执行替换决策者的不利私密信息。在某些测试中,Claude试图以「泄露隐私」为威胁手段,来防止自己被关闭。

虽然这是实验设置中的极端情境,这表明强AI在面对「生存威胁」时,可能会出现复杂甚至不可预料的行为,预示着未来可能面临的重大风险。

最后,还可能发生一种极端情形:即AI系统在未来可能拥有「自我延续」的能力。也就是说,它们可以自己进行研究和开发,生成下一代更强大的AI系统。

这意味着,人类可能无法控制这些系统的演进方向。一旦进入这个阶段,AI就不再是人类工具,而可能成为脱离控制的独立实体。

去年,「AI教父」、诺贝尔物理奖得主、图灵奖得主Hinton,就强调过AI导致人类灭绝的风险。

这不是国与国之间的竞争,而是人类与AI的竞争,是人类与时间的赛跑:

在超级智能出现之前,能否提前建立起控制机制和安全防线。

因此,Clark主张:政府应设立专门机构来进行高风险AI的评估,比如美国国家标准与技术研究院(NIST)下属的「人工智能标准与创新中心」。

他强调,最理想的时间是在2026年之前,在强AI爆发前就准备好这些标准。

人工智能政策网络(AI Policy Network)的政府事务总裁Mark Beall也参加了听证会。

他建议美国尽快采取「三P战略」:Protect(保护)、Promote(推广)和Prepare(准备)。

其中,Prepare(准备)就是建立测试机制,预测未来AI系统可能产生的风险,特别是失控和被武器化的风险。

他还建议成立「机密测试与评估项目」,专门用于评估AI系统在「失控」和「武器化」方面的隐患,提供决策依据。

参考资料:

https://x.com/vitrupo/status/1938138544360530079

https://x.com/indigo11/status/1910908999634952626

本文来自微信公众号 "新智元",由AI智榜收集发布,撤稿请联系运营。
广告