2025-06-24 01:53来源:本站
人工通用智能(AGI)最近经常出现在新闻中,这要归功于OpenAI酝酿的一堆麻烦。
在过去的几天里,这家人工智能公司陷入了混乱,首席执行官换了,董事会成员换了,当一切尘埃落定时,山姆·奥特曼(Sam Altman)发现自己又重新担任了首席执行官。很明显,这一切的起因是双方对该公司在AGI方面取得的新突破的安全担忧存在分歧。
什么是AGI?
当你想到像Copilot(以前的Bing Chat)和ChatGPT这样的人工智能聊天机器人时,它们是高度集中的、专门的语言模型,经过训练,擅长于特定的用例——在这种情况下,与用户进行自然对话。
通用人工智能(AGI)是一个更笼统的术语,指的是经过训练的人工智能,它不仅擅长一项特定任务,而且几乎擅长所有任务。
另请阅读| OpenAI的混乱不那么严重关于人工智能和更多关于钱
这也包括学习的能力,AGI模型可以自学,随着时间的推移,它们的能力可能会进一步提高。AGI不是专注于写贺卡这样的特定任务,它还可以挑选出设计、尺寸、打印质量和使用的纸张,同时向客户解释为什么他们要多花50卢比买一张漂亮的卡片。
这可能会在很多方面改变游戏规则,包括一些关于它最终如何影响或取代人类工作的道德讨论。
人工智能还没有完全实现,专家们对它何时成为现实存在分歧,一些人说这可能需要20年,而另一些人则认为只需几年就能实现。
另一个值得思考的有趣场景是,它是否会对人类的生存构成威胁。大多数专家似乎都同意,虽然人工智能(AGI)一旦实现,很可能会以某种形式独立于人类,但它不会对人类的生存构成威胁。
好吧。但这和OpenAI有什么关系呢?
据路透社报道,OpenAI内部的几名研究人员给董事会发了一封信,警告他们AGI内部的一项新发现可能会威胁到人类。这是在山姆?奥特曼(Sam Altman)从首席执行官的位置上被赶下台之前。
这封信显然是董事会与奥特曼之间一系列问题中的一个,这些问题最终导致他被解雇。OpenAI首席技术官米拉?穆拉蒂(Mira Murati)在奥特曼事件发生之前,曾向员工提到过代号为“Q”的项目。
另请阅读|山姆·奥特曼(Sam Altman)的OpenAI王国的赢家和输家
Q,又名Q- star,被认为是该公司在超级智能或AGI方面的最大突破。研究人员对该模型的数学能力感到兴奋。这是因为今天的人工智能擅长预测或写作,但解决只有一个正确答案的数学方程要困难得多。
研究人员寄给委员会的信中指出了与可能对人类构成危险的模型相关的安全问题。
邀请你的朋友和家人注册MC Tech 3,我们的每日通讯,打破了当天最大的技术和创业故事
DAILY-EVENING
订阅你的收件箱里最热门的科技和创业故事,以此结束你的一天
DAILY-EVENING
订阅你的收件箱里最热门的科技和创业故事,以此结束你的一天