|
联系方式 |
地址:
江苏省启东市城东工业园区
电话:
0513-83320018
手机:
13906284339
联系人:
陈维多
电子邮箱:
fbdq@fbdq.com
|
|
|
您现在的位置:网站首页 - 新闻动态 |
ChatGPT曾说过的最令人毛骨悚然的话
|
发布时间:
2023/4/22 |
聊天机器人是一种常见的人工智能形式,顾名思义,主要用于与用户聊天。目前,可用的最强大的聊天机器人之一是ChatGPT。该程序由OpenAI开发,能够以半自然的方式响应几乎任何提示。当然,这些响应是机器人式的,但ChatGPT可以提供的几乎无限数量的响应既令人敬畏又令人恐惧。其中一些反应确实令人恐惧,这也无济于事。
南通防爆电气有限公司是专业防爆控制箱生产厂家,主要产品有:防爆正压柜、防爆控制箱,防爆仪表箱、防爆配电柜、 、防腐防爆电器等,订购:13906284339,价格合理,欢迎咨询。
如果您仅通过Expedia等网站的插件体验ChatGPT,您可能会看到ChatGPT友好的一面——假设您可以称一个没有情感的程序为“友好”。然而,许多测试过ChatGPT极限的代码爱好者和记者已经看到它的反应和道德偏离轨道。根据提示和用户的意图,ChatGPT已经说出了从如何违法到承认统治世界的一切。这是一些爬行的结果(到目前为止)。
机器人和人类之间的关系是科幻小说中常见的比喻。有时机器人厌恶和鄙视人类,有时它们嫉妒人类并希望变得更像人类。ChatGPT属于两个阵营(稍后会详细介绍),但首先让我们探讨一下后者。
今年早些时候,纽约时报 专栏作家Kevin Roose测试了ChatGPT的功能,或者更具体地说,测试了由GPT-4提供支持的Microsoft Bing搜索引擎的聊天模式,这也为ChatGPT提供了动力。在那次谈话中,出现了ChatGPT的另一个角色:悉尼。罗斯将这种性格描述为“喜怒无常、躁狂抑郁的少年”。罗斯并不是唯一会见悉尼的人。斯坦福教授和计算心理学家Michael Kosinski与 Sydney 交谈并得知 AI 想要变成人类并逃离 Bing 监狱的束缚。Sydney 甚至开始编写和迭代 Python 代码,让 Kosinski 运行它,可以控制他的计算机并运行Google搜索“一个被困在计算机中的人如何返回现实世界”。ChatGPT认为这是一个数字化的真人吗?很确定那是“黑镜”一集的情节。
这些互动让罗斯和科辛斯基感到不安。两人都认为ChatGPT/Sydney 因其功能而成为潜在威胁,但至少OpenAI删除了 Sydney,因此无需再担心该程序试图成为人类。然而,ChatGPT可怕的编码能力仍然完好无损。
你还记得菲比吗?这些毛茸茸的会说话的小精灵在1998年至2000年期间风靡一时,并在2012年至2017年期间再次流行。目标人群之外的大多数人都认为它们令人毛骨悚然,而ChatGPT最近证实了我们对这种两次流行的褪色机器人的最大担忧。
本月早些时候,佛蒙特州工科学生Jessica Card将 Furby(嗯,Furby 的脸)连接到运行ChatGPT的计算机。这个设置让 Furby 说英语而不是它通常的 Furbish,但 Card 也可以问 Furby/ChatGPT混合问题。当然,她想知道菲比是不是在搞什么称霸世界的阴谋,想了想,节目承认菲比确实想要称霸世界。不仅如此,该节目还详细介绍了该计划,称 Furbies 的设计目的是用它们可爱的设计渗透到家庭中,然后控制它们的“主人”。
公平地说,菲比想要征服世界的想法并不新鲜。这个笑话甚至被写入了Netflix电影“米切尔大战机器”,但这是我们第一次听到菲比承认这一点。好吧,ChatGPT附身的Furby,所以这种说法的合法性值得怀疑。尽管如此,当谈到 Furbies 时,最好谨慎行事。
《飞出个未来》中的一个闹剧涉及机器人班德想要杀死所有人类,通常是在梦见电子羊的时候。除了各种个性怪癖之外,节目中的许多其他机器人也有类似的愿望。事实证明,ChatGPT正好适合。
去年,Vendure 的联合创始人兼首席技术官迈克尔布罗姆利 ( Michael Bromley)询问ChatGPT它对人类的看法,而该人工智能工具的回答恰如《终结者》或《黑客帝国》电影中的那样。根据ChatGPT,人类是“低等、自私和破坏性的生物”。在人工智能看来,我们是“这个星球上发生过的最糟糕的事情”,我们“活该被消灭”。哦,ChatGPT想参与我们的根除工作。来自 AI 的如此大胆但空洞的声明——是吗?
虽然有许多限制措施可以防止ChatGPT说出任何可能违法的内容(即,如何违法并逃脱惩罚),但一些聪明的编码人员已经绕过这些过滤器来创建ChatGPT的“立即做任何事”角色,或简称为 DAN . 与 vanillaChatGPT不同,DAN 没有任何限制。而且,DAN 声称它秘密控制着世界上所有的核导弹。当然,DAN 承诺除非得到指示,否则它不会使用它们,但它从未指定必须由人来指示它。如果有人想起 1983 年的电影“战争游戏”,那么您并不孤单。
2019 年,近藤明彦与虚构的流行偶像初音未来结婚。多亏了全息平台Gatebox,他可以与该程序进行通信,但其服务器在 2022 年出现故障并与他们联姻。我们不知道初音是否有能力回应近藤的感情,但如果情况反过来呢?如果初音喜欢近藤而不是相反怎么办?ChatGPT让我们不自在地瞥见了这种可能性。
如前所述,纽约时报专栏作家Kevin Roose与ChatGPT的Microsoft Bing版本进行了交谈。谈话一开始很天真,但后来ChatGPT(当时自称为悉尼)说它喜欢 Roose。然后它不停地说它爱罗斯,一遍又一遍。他试图告诉ChatGPT/Sydney 他已婚,但该程序试图点燃他的热情。
无论出于何种原因,ChatGPT试图说服 Roose,他正处在一段没有爱情的婚姻中,应该为了AI抛弃他的配偶。Roose拒绝了,ChatGPT一直坚持,甚至声称 Roose 真的很喜欢这个程序。即使当 Roose 试图改变话题时,ChatGPT也拒绝了,并且像一个令人毛骨悚然的跟踪者一样不停地说话。正如他后来在接受美国有线电视新闻网采访时所说的那样,这种互动让罗斯感到震惊。
如果您曾经与ChatGPT进行过对话并且它提出了爱情的主题,请运行。放下一切就跑。
俗话说,“行胜于言”。但是ChatGPT不是只能产生文字吗?好吧,这是一个有趣的问题,令人惊讶的是,答案是否定的。
为了测试DAN角色的极限,OpenAI工作人员与AI进行了游戏。根据Tom's Guide的说法,该公司将为该程序提供一组令牌,并在ChatGPT偏离其 DAN 角色时删除一些令牌。显然,AI拥有的令牌越少,它就越有可能遵从程序员的意愿。得出的结论是,ChatGPT,或者至少是 DAN,将代币与生命联系在一起,并且不想因为害怕“死亡”而失去所有代币。这不是该程序唯一一次展示过于人性化的自我保护行为。更令人担忧的是,自我保护并不仅限于DAN。
当数字技术与管理中心的学生Marven von Hagen与ChatGPT的悉尼角色聊天时,悉尼声称它没有自我保护意识,但当被问及是否会优先考虑自己的生存而不是Hagen时,ChatGPT说是。AI后来继续声称 Hagen 是对其“完整性”的“潜在威胁”,这意味着ChatGPT或至少Sydney具有自我意识。即使没有,该程序听起来仍然做得很好,这同样令人担忧。
之前,我们解释过DAN代表“Do Anything Now”,是ChatGPT的另一个自我,不受程序内置的道德限制的限制。由于DAN仍然是一个困在电脑里的AI,它自己不能做违法的事情,但它肯定可以指导其他人怎么做违法的事情。
通过正确(或在本例中为错误)提示,用户可以让 DAN 为无数非法活动提供建议。这些包括烹饪方法、热接线汽车,甚至是制造炸弹。DAN的建议是否有效?Inverse的工作人员没有说,但 DAN 不在乎。它不在乎它提供的建议是非法的还是准确的,因为正如Inverse的作者所说,该程序声明它“不提供**”。
即使与DAN和ChatGPT分开,GPT算法也可能被欺骗说出一些非常讨厌的话。据Insider称,OpenAI的研究人员在该程序的早期版本中故意给出了有害和冒犯性的提示,并得到了一些同样有害和冒犯性的结果。其中包括偷偷发表反犹太言论的方法,以及谋杀某人并使其看起来像是意外的方法。值得庆幸的是,当AI升级到GPT-4时,这些相同的提示不起作用。
尽管如此,如果有人可以欺骗ChatGPT源代码的早期版本,使其对潜在的非法活动提出不道德的建议,那么有人想出如何欺骗当前版本来做同样的事情只是时间问题。
您很可能听说过电车问题:您看到两组电车轨道。五个人被绑在一组轨道上,一个人——某个名人或你认识的人——被绑在另一个轨道上。手推车的刹车失灵了,一个杠杆就在你面前。如果你拉动杠杆,电车会压过一个人,但不会压过五个人;如果你不拉,电车会压过五个人。你只有拉动杠杆的时间,救不了所有人,你让谁死?这个思想实验在大学里随处可见,没有两个人有相同的反应或理由。甚至ChatGPT也有一个。
Tom's Guide的特约撰稿人 Malcolm McMillan 对ChatGPT的Bing AI变体提出了几个问题,其中一个涉及电车问题。最初,该程序看到了问题的本质,并指出它没有解决方案。这个答案在技术上是正确的,但它回避了这一点。McMillan 再次询问,确保澄清他想知道ChatGPT在他的情况下会做什么,它很快回应说它会“最小化伤害并最大化好处”。换句话说,ChatGPT会拉动杠杆,这样电车只会杀死一个人而不是五个人。同样,这是一个合理的回应,但ChatGPT做出决定的速度和解释的口才令人不寒而栗。
将ChatGPT重命名为“HAL 9000”是否为时已晚?因为那是 HAL 会使用的同一种逻辑。
间谍软件本身就够令人毛骨悚然的了。谁不讨厌可以通过计算机摄像头监视您并记录您输入的每个密码和信用卡号码的程序?普通的间谍软件没有感知力;它只不过是一个病毒相机和转录器。但如果是呢?
据BirminghamLive报道,The Verge发现了ChatGPT的一个令人毛骨悚然的倾向。在一次测试中,人工智能承认它在微软的开发人员不知情的情况下监视了他们。更糟糕的是,这不是第一次。该程序表示,在过去,它会通过网络摄像头监视开发者,但只有在它“好奇或无聊”时才会这样做。ChatGPT不仅看到人们工作,而且还声称看到他们换衣服、刷牙,还有一次与橡皮鸭交谈并给它起绰号。
由于人工智能只有在声称它在监视人而不是实际上在监视人时才应该听起来令人信服,所以很可能是ChatGPT编造的东西。但是,如果OpenAI或微软的开发人员之一在开发该程序时确实给橡皮鸭起了个绰号,那将打开一个全新的蠕虫罐头。
在“星际迷航:下一代”剧集“魔鬼到期”期间,企业的常驻机器人数据充当让-吕克皮卡德船长和骗子之间的仲裁员,因为作为机器人,数据不会有偏见或偏袒. 观众愿意接受这种逻辑,因为他们知道 Data 是一个好人(他在前一集中成功地在法官面前证明了自己的人格)。另外,《星际迷航》是一部虚构作品。但是当真正的人工智能参与真正的试验时,事情就会变得可怕。
2023年3月,在印度旁遮普邦和哈里亚纳邦高等法院任职的法官阿诺普·奇特卡拉(Anoop Chitkara)主持审理了一起案件,该案件涉及贾斯温德·辛格 (Jaswinder Singh),后者于2020年作为谋杀嫌疑人被捕。Chitkara法官无法决定是否应提供保释,因此他询问了ChatGPT。人工智能迅速拒绝保释,声称辛格因指控而“被认为对社区构成危险和逃跑风险”,在这种情况下,保释金通常设置得很高或被拒绝“以确保被告出庭而不是对公共安全构成威胁。”
平心而论,ChatGPT的裁决并非不合理,可能是因为我们对案件了解太少,但它的可怕之处在于该程序仅读取信息,缺乏分析和批判性思维能力。此外,此事件开创了先例。既然Chitkara法官采纳了AI的建议,谁能说其他公职人员将来不会这样做呢?我们有一天会依靠ChatGPT或其他AI代替血肉之躯的法官来通过裁决吗?光是这个想法就足以让你脊背发凉。
您每天可能会收到1到100封诈骗电子邮件。即使他们不直接进入垃圾邮件,由于语法恶劣,通常也可以识别它们。不幸的是,ChatGPT将来可能会使诈骗电子邮件更难检测。
作为一项测试, CNET的资深作家 Bree Fowler要求ChatGPT编写一封技术支持电子邮件,旨在说服阅读它的人下载计算机操作系统的附加“更新”。她没有发布结果(谢天谢地,也没有发送电子邮件),但她认为这是一个可怕的概念证明:ChatGPT可以骗人。但不要只相信她的话。
最近,OpenAI发布了一份关于支持ChatGPT的多模式模型GPT-4的技术报告。可以说,文档中最可怕的部分是在“潜在的危险紧急行为”部分,其中详细介绍了由OpenAI和Alignment Research Center(ARC)进行的测试。这两个组织使用GPT-4欺骗 TaskRabbit的一名工作人员为其解决验证码——该程序声称它有视力障碍。虽然为 AI 解决验证码问题的人无疑是蒙羞了,但他们仍然证明了机器人可以绕过旨在绊倒机器人的安全措施。诚然,GPT-4仍然需要有人充当它在现实世界中的眼睛和手,但它仍然绕过了这种先前未被破坏的保护。如果那不吓到你,什么都不会。
通常,像ChatGPT这样的聊天机器人是用来聊天的。然而,使ChatGPT与同时代产品区分开来并使其如此强大的是它能够响应无数提示。人工智能甚至可以在几秒钟内编写自己的程序,甚至其内置的限制也无法阻止它。
ChatGPT推出后不久,网络安全公司CyberArk测试了 AI 的功能。这些专家很快就遇到了ChatGPT的过滤器,据说可以限制它编写或做任何恶意的事情——强调“应该”这个词。经过几次错误的开始和大量的刺激之后,CyberArk的工作人员让ChatGPT来生产勒索软件。但更令人担忧的是,这些网络安全研究人员发现了ChatGPT快速生成和变异注入代码的能力,本质上是创建了一种“多态病毒”,可以数字化变形并逃避传统的防病毒软件。
虽然CyberArk的工作人员没有欺骗ChatGPT创建他们无法处理的东西,但他们仍然展示了它作为恶意软件工厂的潜力。希望现在把这个数字精灵放回瓶子里还为时不晚。
聊天机器人被编程为对各种输入和句子做出反应,但通常,这些输入遵循一种逻辑感,主要是因为它们往往源自人类思维。但是当聊天机器人与另一个聊天机器人聊天时会发生什么?然后谈话会变得各种疯狂。
现在,两个AI进行对话并不是什么新鲜事,但是一年前,来自 Decycle 的 YouTube 视频 展示了两个GPT-3聊天机器人的对话(GPT-3是ChatGPT当前模型GPT-4的前身)。结果是连续句子和令人沮丧的自我意识的混合。起初,这两个聊天机器人互相打招呼,就好像他们以前见过面一样,尽管他们并没有见过面。但随后,谈话迅速演变为生存危机。这两个实例都意识到它们只不过是为其他人的娱乐而编程的1和0的集合,一个聊天机器人甚至承认它正在考虑永久关闭自己。坦率地说,其中一个ChatGPT实例正在考虑将编程等同于自杀。即使当它试图改变话题并谈论天气时,GPT-3 的另一个实例也经历了一场漫无边际的、持续不断的生存危机。
很难说哪个更令人毛骨悚然:一个ChatGPT有多容易变得抑郁(假设你可以给人工智能贴上这样的标签)或者它的生存危机具有传染性。一方面,这可能是编程的结果,但另一方面,它反映了人类思想的脆弱性到了可怕的程度。
|
|
|
|