新的开源AI模型可以自我检查并避免幻觉

2025-06-21 16:26来源:本站

  

  当Anthropic或OpenAI等知名人工智能公司宣布新的、升级的模型时,它们会受到很多关注,主要是因为人工智能对个人电脑用户和办公室的全球影响。人工智能似乎一天比一天聪明。但总部位于纽约的初创公司HyperWrite推出的一款全新的人工智能却因不同的原因而受到关注——它使用了一种新的开源错误捕捉系统,以避免许多经典的“幻觉”问题,这些问题经常困扰ChatGPT或Google Gemini等聊天机器人。今年早些时候,谷歌双子座曾告诉人们在披萨上涂胶水。

  据新闻网站VentureBeat报道,这款名为Reflection 70B的新型人工智能基于meta的开源Llama模型。其目标是将这种新的人工智能引入该公司的主要产品——一款写作助手,帮助人们构思文字,并根据用户的需求进行调整——这是一种“激发”创意的任务,而生成式人工智能非常适合这种任务。

  但最有趣的是,反射70B被首席执行官兼联合创始人马特·舒默吹捧为“世界顶级开源人工智能模型”,它包含了一种名为“反射调谐”的新型错误发现和纠正。正如舒默在一篇关于X的文章中所观察到的那样,其他生成式AI模型“有产生幻觉的倾向,并且无法识别它们何时会产生幻觉”。新的纠错系统让法学硕士“认识到自己的错误,然后在提交答案之前进行纠正”。系统允许AI分析自己的输出(因此得名“反射”),这样他们就可以发现自己的错误并从中吸取教训——本质上,AI的输出被放回到系统中,系统被要求确定输出是否有需要改进的地方。

  人工智能努力提高自己的想法并不新鲜,今年4月,meta的马克·扎克伯格(Mark Zuckerberg)就表示,meta自己的Llama模型应该能够通过多种不同的方式解决问题来训练自己,找出哪一种输出是追踪到正确答案的,然后把它放回人工智能模型中,以一种反馈循环的方式训练它。Reflection 70B似乎将此作为AI幻觉或错误信息问题的更直接解决方案,根据它显示给用户的信息采取行动,而不是简单地将正确的信息作为训练数据放回。据新闻网站CoinTelegraph报道,为了展示Reflection应该具备的“修复”能力,舒默展示了一张关于“草莓”一词中“r”的数量转换的图片。最近,当顶级人工智能模型出现故障,并表示只有两个“r”,而不是三个时,这种令人愉快的奇怪幻觉登上了头条。在模型对话中,Reflection被问及这个问题,并在标记自己的“反射”错误发现工作之前以“2”回应,然后报告“我犯了一个错误”。我现在可以清楚地看到,‘草莓’这个词实际上有3个‘r’。”

  随着越来越多的人使用人工智能来搜索新闻数据,询问他们对重要事项的意见等,人工智能的准确性业务、错误信息共享问题和其他可靠性问题变得至关重要。让未来的智能人工智能与人类的最佳利益保持一致是一个新问题,欧盟、美国和英国签署了一项新协议,以确保人工智能的安全。

  这种努力的困难在于,为了制定真正有意义的法律,监管机构必须掌握真正棘手的数学和逻辑问题,这些问题是ChatGPT等人工智能模型乃至Reflection 70B等新挑战者的核心——从简单的计数开始。例如,加州即将出台的人工智能法律要求,当人工智能模型在每秒能进行10到26次浮点运算的计算机上进行训练时,必须披露信息。这是每秒100亿位的数学运算,这是一大堆要数的零。我们只能希望那些不擅长数学的议员们能比ChatGPT在计算“草莓”中的“r”方面做得更好。

豪豪资讯声明:未经许可,不得转载。