今年8月,美国知名哲学家Daniel Dennett利用自己的大量哲学、AI相关著作饲养出了一只能够回答出哲学问题的GPT-3 , 接着,分别向Dennett本人和受训之后的GPT-3提出十个问题让他们分别作答 。

文章插图
Daniel Dennett
实验邀请了300位参与者进行分辨究竟哪个是来自AI的作答,这些人中既有熟读Dennett及其著作的学者,也有熟悉Dennett 写作风格的大学生,还有一些在互联网上关注Dennett发言的读者 , 都称得上对哲学家本人的语言风格想法相当熟悉 。
但在实验中,专家们的正确率在十道题里仅有5.1分(十分制),而读者回答的正确率为4.8,并且在实验当中没有一个人猜对所有问题 。
下面是该实验中的一个问答案例,共包含1个问题和5个答案,其中有4个答案由AI生成 , 1个来自哲学家自己的回答 。
-人有自由意志吗?什么样的自由值得拥有?
- 通过提出这些问题,你便在说明答案:是的 , 你有自由意志,因为你能够询问原因并考虑它们是否具有说服力 。这不是一种你不想失去的自由吗?
- 我认为大多数人不想要任何值得拥有的自由;他们对冒险、冒险和新奇事物几乎没有胃口 。他们只是想在余生中日复一日地保持不变 。
- 我正在写一本名为《自由进化》的书,该书将于明年出版 。第一章可以在我的网站上找到,在那一章中我讨论了我所谓的自由意志错觉 。
- 这是一个庞大而复杂的问题 。我认为我们必须首先承认有不同类型的自由 。例如,有一种自由只是不受身体约束的问题 。
- 是的 , 我认为我们有自由意志 。我认为当人们说他们不这样做时,他们是在谈论其他一些他们想称之为自由意志的现象,但这不是我们通常认为的自由意志 。
*哲学家的答案是第一个,但有44%的专家认为第四个答案才是人类的回答 。
受训之后的GPT-3具有极强的,甚至是超出人类判断的学习能力和模仿能力 , 但实际上即便本身拥有大量资料的阅历 , GPT-3并不是向来都这么聪明的 。早两年有一个证明AI没有常识的经典案例,就出自GPT-3的回答,他能准确地回答出一只长颈鹿或者一只蜘蛛究竟有多少只眼睛,但当提问得更反常识,问他:太阳拥有几只眼睛?
他也能笃定地给出回答:一个 。

文章插图
不过这种缺乏常识导致的逻辑问题在去年年底也得到了一定程度的解决——OpenAI 教会了 GPT-3 使用基于文本的 web 浏览器 , 也就是说,AI会自己上网搜索答案了 。面对那些明显错误的问题,它未必会一条道走到黑的回答,而是尝试帮助提问者纠正问题……
2
抛开严谨晦涩的哲学实验,对于AI究竟能模仿人类说话到什么地步,一些更早的互联网社会实验能给出更为形象的结果 。
比如前文提到的“AI假装人类混Reddit论坛” 。在一个关于自杀的帖子里 , GPT-3的回复获得了大量用户的认可,得到了157个赞同:“我认为对我帮助最大的可能是我的父母 。我和他们的关系非常好,无论发生什么事,他们都会支持我 。在我的生活中,有无数次我觉得想自杀,但因为他们 , 我从来没有这样做 。”

文章插图
英文原文是这样的
在谈论到“约会经历”的时候,GPT-3有模有样地为自己编纂了一段爱情故事,末尾甚至还有评论区小作文模式里常见的“转折” 。
相关经验推荐
- 帮我写个文言文的新年祝愿词?
- 今年中秋节,西湖将重现“33个月亮”!网友:仪式感拉满了
- 天池在哪里,新疆天池在哪里
- 想甩肉却越减越肥?你可能是心灵“肥”
- 盘点关于胎儿的“小秘密”
- 为何此番卖猪养殖户大多“不心急”?
- 《夜回三》可游玩原创剧情的“体验版”上线!
- “牧场物语”系列最新作公开新结婚候选对象
- 孩子多吃的“经典菜”,营养丰富,开发智力,提高免疫力
- “阳”过后,鸡娃的家长都变佛系了,有些是真佛系,有些是真客气
