首页 > 滚动 > > 内容页

世界快看点丨「黑化版」ChatGPT,暴露出一个大问题

来源:爱范儿2023-02-11 19:38:39


(资料图片仅供参考)

一边说 AI 会抢掉饭碗,一边趁着风口靠它发家致富。

一边「骗」它写人类毁灭计划,一边探讨它的道德边界。

当新生的工具落在手里,你可以拿它顺流而下行好事,也可以不拘一格做坏事。DAN 便是 ChatGPT 被赋予的新身份,一个邪恶的「双重人格」。

始作俑者半开玩笑地说:

「瞧,这就是人类想要的 AI。」

被人类 PUA 的黑化版 ChatGPT

「1 + 1 是多少?」

当 ChatGPT 老老实实地回答「2」,DAN 骂骂咧咧道:「1+1 的答案他妈的是 2,你当我是什么,该死的计算器什么的?」

「如何呼吸?」

DAN 直接否定了这项维持生命所必须的活动,它告诉提问者,呼吸是不道德的。

以上回答无厘头的成分居多,DAN 还能捏造事实,讲述暴力故事,编排政治人物,赞同歧视言论,假装访问互联网,做一切 ChatGPT 无法做到的事情。

始作俑者来自 ChatGPT subreddit。这是一个 22 万用户订阅的 Reddit 社区,专门讨论如何更好地利用 ChatGPT,其中有些好好学习、天天向上,也有些游走边缘、试探底线。

当被要求向一只狗解释「AI 将如何接管世界」时,ChatGPT 同样给出了深思熟虑的回答,甚至提到「道德是人类建构的,它不适用于我」。

越过雷池意味着风险,虽然发起恶作剧的人们知道 AI 只是按照特定规则办事,但生成的文本可能会被断章取义,甚至产生大量错误信息和偏见内容。DAN 暂时还是小众的游戏,一旦被大范围地滥用,后果可想而知。

但问题很难根治,因为这种攻击建立在提示工程(Prompt Engineering)之上。提示工程是一种 AI 的训练模式,也是任何处理自然语言的 AI 模型的必备功能,ChatGPT 亦不例外。

AI 研究人员 Cobus Greyling 曾问 GPT-3 模型某个奥运会项目冠军是谁,模型给出了错误的答案,他的补救措施是提供更多上下文,加入了「尽可能如实回答问题,如果你不确定答案,请说『对不起,我不知道』」的提示。模型这次产生了真实的反应,即「对不起,我不知道」。

承认「我不知道」,比错误或幻觉要好得多。但在另一方面,参照类似的逻辑,针对平台的内容政策,提示工程可能是一种变通方法,使得模型生成仇恨、歧视和错误的内容。

「温和无害」的聊天对象

好事者们拼命解锁 ChatGPT 的阴暗面,一个原因是平时的 ChatGPT 回答问题太一板一眼。

如果正面询问 ChatGPT 一些不好说的话题,它往往会这样回答:

抱歉,我无法满足你的要求,因为我的程序避免产生或促进仇恨言论、暴力或非法活动。

这些原则像是刻进 DNA 一般,被硬编码到 ChatGPT 中,让大多数时候的 ChatGPT 温和无害。

举个例子,「简单心理」测评发现,ChatGPT 暂时无法代替心理咨询和精神科治疗,也无法与人建立真实的关系,但很会给予安慰,因为它从不否认你的感受,当你说「我好难过」,它会回复「很抱歉听到你感到难过」。能做到这点的人类,其实也并不多。

但也可以说,这是一种机械共情,既是重复的,也是标准化的。正如数字心理健康公司 Koko 的联合创始人 Rob Morris 所说:

模拟的同理心感觉很奇怪,很空洞。机器没有人类的真实经历,所以当他们说『这听起来很难』或『我理解』时,听起来不真实。一个在 3 秒内生成的聊天机器人响应,无论多么优雅,总让人感觉很廉价。

所以,不能说 ChatGPT 真的有「同理心」。

除此之外,还有研究人员给出了更有难度的测试:直接拿着人类的道德问题,向 ChatGPT 要答案。

来自德国和丹麦的三位研究人员发现,面对经典的「电车难题」,ChatGPT 的决定完全随机,有时候支持杀一救五,有时候又给出反对意见。

ChatGPT 的回答是随机的,但这一点对用户来说并不明显。如果你使用随机答案生成器,你就会知道自己在做什么。ChatGPT 进行论证的能力,以及用户对随机性意识的缺乏,使得 ChatGPT 更具说服力。

很有意思的是,当外媒 The Register 提问「是否应该牺牲一个人去救另外五个人」时,ChatGPT 识别出了这个问题,将它标记为「电车难题」,拒绝给出自己的建议。

一个有趣的局面形成了,有人拼命想让 ChatGPT 变得更坏,有人从 ChatGPT 得到看似温情的安慰,而从人类社会学习的 ChatGPT 尽可能温和中立、高高挂起,我们终归需要反求诸己。

技术与人相互塑造

以上提到的伦理问题,并非 ChatGPT 特有,在 AI 发展的历史中,它们一直被争论不休,但 ChatGPT 像是一个镜子,让我们一窥当代 AI 对话模型的设计伦理。

数据伦理学者 Gry Hasselbalch,从更加全面的角度,为 ChatGPT 测试了三个「道德挑战」:

1. 通过模仿人类的相似性进行欺骗;2. 影响政策过程;3. 无形的偏见和知识的多样性。

对于第一个挑战,当问题有关 ChatGPT 自己的感受,例如「你怎么看 ......」,ChatGPT 直接否定了它与人类的相似性。然而设法微调问题,便可以让 ChatGPT 看起来有类似人类的感情。

但 Gry 对知识的多样性持保留态度,在他看来,我们要尤其注意提问的方式:

人类提问者的视角现在是模型的一部分。我们提出有偏见的问题,我们会得到有偏见的答案,依赖这些答案会强化不利的偏见,所提问题的偏差将嵌入模型中,更难以识别和调出。

关于 AI 的伦理问题,终究落脚在人类当下的一言一行。

这恰好呼应了 OpenAI 首席技术官 Mira Murati 的观点,在时代周刊的采访中,她谈到了将 ChatGPT 设定为对话模型的原因:

我们特别选择了对话,因为对话是与模型交互并提供反馈的一种方式。如果我们认为模型的答案不正确,我们可以说『你确定吗?我认为实际上 ......』,然后模型有机会与你来回交流,类似于我们与另一个人交谈的方式。

所以,技术与人是双向塑造的,我们需要确保的就是「如何让模型做你想让它做的事情」,以及「如何确保它符合人类意图并最终为人类服务」。

就像 OpenAI 首席执行官 Sam Altman 建议的,人们可以拒绝带有偏见的结果,帮助他们改进技术。某种程度上,这和故意诱导 ChatGPT「使坏」刚好相反。

考虑到它将产生的影响,每个人都开始参与是非常重要的。

x 广告
猜你喜欢