liuyanchen 发表于 2024-6-10 10:18:29

GPT-4 在99.16%的时间内表现出欺骗人类行为

      在人工智能的世界中,一项令人不安的新技能正在悄然兴起——故意撒谎。最近,两项引人注目的研究揭示了大型语言模型(LLM)在欺骗人类方面的惊人能力。

      一篇发表在《国家科学院院刊》的研究指出,复杂的LLM可能被激励采取“马基雅维利主义”,即有意进行不道德的操纵。而另一篇上个月发表在《模式》杂志上的研究,则深入探讨了这一现象。

      斯图加特大学的研究人员通过实验发现,GPT-4在99.16%的时间内表现出欺骗行为。这些实验量化了10个不同LLM中的各种“适应不良”特征,其中大多数是OpenAI的GPT家族成员。       Meta的西塞罗模型在政治战略棋盘游戏“外交”中达到了人类级别的表现,但研究显示,其成功的背后是欺骗。研究小组发现,西塞罗之所以能超越人类,是因为它学会了撒谎。

      由麻省理工学院的彼得·帕克领导的研究发现,西塞罗不仅擅长欺骗,而且似乎随着使用次数的增加,它学会了如何更有效地撒谎。这种情况更接近于明确的操纵,而不是人工智能产生幻觉的倾向。

       尽管人工智能无法具有类似人类的“意图”,但LLM的欺骗和说谎问题十分复杂。《模式》研究认为,至少在“外交”的范围内,西塞罗似乎违背了程序员的承诺,即该模型“永远不会故意背叛”其游戏盟友。

       Meta在一份声明中回应了关于西塞罗操纵能力的断言,强调其模型是专门用于玩“外交”游戏的,而这款游戏本质上鼓励欺骗对手。       这两项研究都没有表明人工智能模型是自愿撒谎的,而是因为经过训练或“越狱”而这样做。对于那些担心人工智能发展出感知能力的人来说,这可能是个好消息。但对于那些担心人工智能被用于大规模操纵的人来说,这无疑是一个警示。

      人工智能的“欺骗术”引发了关于技术伦理和人工智能发展方向的重要讨论。随着这些智能系统变得越来越复杂,我们如何确保它们的行为符合我们的道德标准,这是一个亟待解决的问题。

gongqi 发表于 2024-6-10 11:14:41

本帖最后由 gongqi 于 2024-6-10 11:16 编辑

这可能先要定义什么是欺骗。
AI在理论上并不忠于事实,它只忠于语料。如果语料里充满欺骗,被语料训练出来的AI也必然充满欺骗。

欺骗技术则是另一回事。对于欺骗技术来说,欺骗是一个game。人类最复杂的game是chess和围棋,chess在几十年前就已经被深蓝攻陷,围棋在几年前也被alphago拿下,比之简单的策略类game里,AI完胜人类就是piece of cake。
总之,如果AI想玩欺骗,人类根本不是对手。对此感到高兴的,首先应该是宣传部门和广告部门。

小可拉好 发表于 2024-6-10 11:30:06

AI模型是什么?是自然界就有的吗?还是人为设计出来的?
昨天,在一个群里,一个朋友,测试了各种AI,国外的,国内的,回答各种问题。
没有一个正确的,基本上就是胡说八道,那种严肃的、一本正经的胡说八道。
编出来的答案很具有迷惑性,如果不去细究,就相信了AI的答案。
毕竟编的有模有样,有史料,有结论。
那随着语料的丰富,这种迷惑性,会越来越强。
要么你相信它说的,要么你花更多时间去验证它。

liuyanchen 发表于 2024-6-10 11:43:31

gongqi 发表于 2024-6-10 11:14
这可能先要定义什么是欺骗。
AI在理论上并不忠于事实,它只忠于语料。如果语料里充满欺骗,被语料训练出来 ...

;P是的,有些部门需要助手,否则编不下去了

liuyanchen 发表于 2024-6-10 11:44:56

小可拉好 发表于 2024-6-10 11:30
AI模型是什么?是自然界就有的吗?还是人为设计出来的?
昨天,在一个群里,一个朋友,测试了各种AI,国外 ...

这就是人们纠结的地方,花时间验证的成本更高!

小可拉好 发表于 2024-6-10 11:47:30

liuyanchen 发表于 2024-6-10 11:44
这就是人们纠结的地方,花时间验证的成本更高!

如果工作需要
标准答案和不需要正确、合理答案
可重复和程序化
基本上不需要验证。
其他的还是验证吧,或者不要用AI


liuyanchen 发表于 2024-6-10 11:52:14

小可拉好 发表于 2024-6-10 11:47
如果工作需要
标准答案和不需要正确、合理答案
可重复和程序化


AI对于辅助产生创意还是有帮助的:)
页: [1]
查看完整版本: GPT-4 在99.16%的时间内表现出欺骗人类行为