ChatGPT无所不能?它不知俄乌战事 奥运金牌榜也弄错了

近期,人工智能领域的黑马产品ChatGPT一经亮相便备受关注,甚至连特斯拉CEO马斯克也表示:ChatGPT好得吓人,我们离强大到危险的人工智能不远了。

公开资料显示,ChatGPT为人工智能公司OpenAI于2022年11月推出的聊天机器人,能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务,因此有望成为提高办公、学习效率的工具。

一时间,关于ChatGPT或将取代搜索引擎,进而取代不少人类从事的工作的说法甚嚣尘上,但ChatGPT真的如此强大吗?我们是否过度担心,又或者低估了ChatGPT的未来潜力?

对此,澎湃新闻(www.thepaper.cn)记者与ChatGPT进行了一系列对话作为测试。

当地时间2023年2月6日,土耳其东南部靠近叙利亚的边境地区一天之内两度发生7级以上地震,之后余震不断。当记者在对话框输入“土耳其地震最新消息”时,ChatGPT回答称,它无法访问最新的事件进展,因为其当初在进行模型训练时,数据只更新到2021年。最后它还友善地建议“您可以通过查看可靠的新闻来源获取信息,例如CNN、BBC或路透社等主要新闻媒体”。

ChatGPT与澎湃新闻记者关于“土耳其地震最新消息”的对话
ChatGPT与澎湃新闻记者关于“土耳其地震最新消息”的对话

熟悉ChatGPT的技术领域相关人士也向澎湃新闻表示,ChatGPT没有联网,因此并不能替代搜索引擎。“它是一个离线的生成模型,所有的回答都是生成的,不具备真实性。但它会尽量像人一样讲话,让你觉得回答内容有理有据。”

澎湃新闻随后测试了ChatGPT对于2021年2月缅甸政局突变、7月开幕的东京奥运会、8月中旬的塔利班重掌阿富汗、9月火遍全球的网飞连续剧“鱿鱼游戏”,以及2022年2月开始的俄乌冲突等全球热点的相关信息,结果显示,ChatGPT虽可以提供追溯到2014年克里米亚事件的背景信息,但对于去年爆发的俄乌冲突却只字未提。就ChatGPT知识储备的具体时间节点而言,ChatGPT能够大致描绘出2月缅甸政局突变的相关情况,而对8月发生的塔利班重掌阿富汗及一个月后的“鱿鱼游戏”爆火等事件一无所知。

值得注意的是,在被问及“东京奥运会金牌榜”时,ChatGPT给出了一个看似“靠谱”的回答——美国赢得了最多的46枚金牌,日本(38枚)和中国(36枚)紧随其后,俄罗斯、英国、澳大利亚等国也表现优异。然而,经核查,上述数据并非2021年8月8日闭幕的东京奥运会的金牌榜结果(实际结果为美国39金、中国38金、日本27金),也非过往任何一届夏季奥运会的金牌榜数据。

ChatGPT与澎湃新闻记者关于“东京奥运会金牌数”的对话
ChatGPT与澎湃新闻记者关于“东京奥运会金牌数”的对话

由此可见,ChatGPT的“知识盲区”起点或存在于2021年2-7月的某一时间点,而它给出的答案,也并不总是准确。

对于能搜索到多久以前的信息这一直白的问题,ChatGPT回答称,自己是一个语言模型,没有能力浏览互联网或访问实时信息。“我的培训数据包括来自各种来源的广泛信息,包括新闻文章和其他文本,但我的知识仅限于我接受的培训。”

对于未来的预测,ChatGPT在回答澎湃新闻关于“是否会发生第三次世界大战”的问题时表示,自己不具备预测未来事件的能力。“对于第三次世界大战的可能性,我可以说明一些背景信息和相关历史事件,但是关于是否会发生这样的事件,我不能做出任何确切的预测。不过,可以说,世界上的许多国家和组织都致力于避免军事冲突,维护和平与安全,并通过外交途径解决争端。因此,我们可以对世界的未来抱有一些乐观的期望。”

在ChatGPT大火之后,美媒《福布斯》采访了OpenAI的首席执行官山姆·阿尔特曼(Sam
Altman),询问ChatGPT是否会取代传统的搜索引擎,阿尔特曼表示,ChatGPT不会取代搜索引擎,但他认为将来某一天的某个人工智能系统可能可以做到。

“如果你只关注昨天的新闻,那么你很可能错失新的机会。我更感兴趣的是思考搜索以外的新应用。这些新的应用,不一定要等到人工智能(AGI)的出现;相反,我认为这样的局面(新的AI应用爆炸)很快就会发生。”

阿尔特曼的这一表态和一直关注人工智能的马斯克以及比尔·盖茨不谋而合,比尔·盖茨也在近日表示,他从ChatGPT的成功更多地看到了此类AI的潜能,他甚至还表示,人工智能(AI)颇具颠覆性,相比而言,他对元宇宙、Web3则并不感冒。

其实,ChatGPT的爆火最初源于它在一位工程师的诱导下,竟写出了毁灭人类的计划书。步骤详细到入侵各国计算机系统、控制武器、破坏通讯、交通系统等,甚至还给出了相应的Python代码。

ChatGPT的“毁灭人类计划书”
ChatGPT的“毁灭人类计划书”


这一新闻也让人们不禁联想到去年6月,谷歌软件工程师雷蒙恩(Blake
Lemoine)称在与聊天机器人LaMDA对话的过程中,认为LaMDA产生了自我意识。在谷歌的保密协议下,人工智能是否已产生自我意识我们不得而知,只能看到这一事件的最终结果是雷蒙恩被辞退。而对于自己是否有意识这一问题,ChatGPT的回答则相对让人类安心,它说自己没有意识也不具备感知、思考、自我意识或感情的能力。“我是一种通过计算机程序实现的技术,可以识别和回答您的问题,但不具备自主意识。我的回答是基于我所学到的信息和算法,不包含意见或情感。”

尽管如此,ChatGPT的“聪明”还是时常会令人一惊,一位经常使用ChatGPT的互联网行业人员告诉澎湃新闻,据她观察,这个模型在学习过程中提取了一些共识,例如ChatGPT会回答北方用微信多,南方用支付宝多。“肯定语料库里面大家都是这么说的。”她说。