|
联系方式 |
地址:
江苏省启东市城东工业园区
电话:
0513-83320018
手机:
13906284339
联系人:
陈维多
电子邮箱:
fbdq@fbdq.com
|
|
|
您现在的位置:网站首页 - 新闻动态 |
防AI失控 多国政府拟定相关限制
|
发布时间:
2023/11/1 |
近期国际冲突不断,中共、伊朗等极权国家或激进组织滥用AI,去发动讯息战煽动民众仇恨,或借此发展出更强大的武器。对此,多国政府开始重视对AI的限制,希望透过新法规和共同合作,防止世界出现最糟糕的情况。
英国首相苏纳克(Rishi Sunak)10月26日就人工智能(AI)问题在伦敦发表演讲。他先是肯定AI在医疗保健等领域上拥有极高的潜力,不仅能诊断失明,还可以预测心脏病、中风或帕金森氏症等。
不过,苏纳克就AI的问题对民众发出严重警告。他说,“人类可能会完全失去对AI的掌控,那将会带来极其严重的后果。因为AI就像每一波科技浪潮一样,会带来新的知识,但也会带来新的危机和恐惧。”
他还提到,“恐怖分子和犯罪组织可能会利用AI,制造出杀伤力强大的生化武器、网络攻击、传播虚假资讯、诈欺甚至儿童性虐待。”
不过,苏纳克认为,只要政府做好监管和控制,AI就不会导致人们出现危险。他说,“目前政府已经投资1亿英镑,组建新的监管AI工作小组,用于保证民众的安全。”
苏纳克强调,“AI没有国界之分,需要更多国家、高科技公司代表和民间社会参与英国举行的‘全球首届AI安全高峰会’,共同商讨应对AI带来的风险,确保AI系统在发布之前是安全的。”
另外,英国政府在10月25日发布《AI能力与风险》报告提到未来的18个月内(2025年)黑客、诈骗者和恐怖分子可以利用AI以更便宜、更容易地方式攻击无辜受害者。
人类除了担心别有用心的人利用AI做坏事,还担心依赖AI的问题。许多人把诸多重要的决策和控制权交给AI来处理的问题,例如:网球比赛中的判定,法院裁判权、或者网购和仓储系统、重要的国家决策和科学研究等。
这种依赖可以从英国首相的演讲听到。当时苏纳克提到,英国政府投资近25亿英镑购买量子电脑,用于AI研究和政府业务上。原因是AI可以为人类生活上的问题,提供一百万种不同的解决方法,而这台量子电脑比世界上最快的超级电脑要快上数亿倍。
许多人,包括科学家都担心,若人们继续毫无限制地发展和依赖AI,恐产生人类难以收拾的场面,而数据公司丰富(Profusion)的执行长娜塔莉·克兰普(Natalie Cramp)也表达了对AI的担忧。
她认为AI并非万无一失,未来极有可能出现《魔鬼终结者》等电影中描绘的人类末日情况,把人类视为消除的对象。目前,AI短期的危险在军事应用上,因为AI可以远端控制无人机或机器人,但它们可能做出伤害人类的行动。
实际上,克兰普讲的早已成为现实,如美国研发的F-16无人战斗机、以色列士兵装备的“智能射手”、俄乌战场上使用的AI无人机。另外,美国空军6月在一次AI模拟测试中,发现一架负责摧毁敌方设施的AI无人机,不仅拒绝操作员中止任务的命令,还透过“杀害”操作员去完成任务。
许多高科技公司希望结合“云计算”、“大数据库”和更强运算力“GPU芯片”打造更强大的AI,但人们担心这可能会让AI产生自我“意识”或在发生严重故障和问题时,会造成无法挽回的后果。
美国著名的西北大学(Northwestern University)的一个研究团队10月初在《美国国家科学院院刊》中发表一篇关于AI能够高效率地自动设计机器人的论文。这款AI拥有近乎让人们感到恐惧的“设计能力”,只要在轻型个人电脑上运行,且无需使用庞大的数据库或超级电脑。
该团队表示,只需要使用者对它下达类似“设计一个可以在平坦表面上行走的机器人”这种简单指令,AI就能在短短几分钟内设计出符合需求的机器人。这种能力是人类和过去的AI无法轻易办到,因为他们需要花费大量的时间进行训练和研发才能够完成。
对此,日本高科技公司社长德森翔(Sho Tokumori)10月28告诉大纪元,“AI看似能够突破人类固有的观念和限制,带来更多的可能性,但也会出现人类无法预料的情况,最终脱离人类的掌控并走向未知的方向,这是很危险的。”
麻省理工学院物理学家兼AI专家马克斯·泰格马克(Max Tegmark)曾多次表示,人类能让渡渡鸟等“低等”物种灭种,若出现一个比人类更强大、更聪明的人工智慧“物种”,那时将会有超过50%的人类面临相同的命运。
苏纳克演讲中提到的AI创造生化武器的技术很容易被恐怖分子操纵来寻找有毒的神经毒剂。此前,英国药理学家肖恩·埃金斯(Sean Ekins)在《未知:杀手机器人》(unknown:Killer Robots)纪录片中讲述,AI如何可在一夜之间创造(计算)出四万多个全新且极其致命的化学武器分子。
各国政府开始重视AI带来的问题
不仅是英国首相对AI感到担忧,联合国秘书长安东尼欧·奥古特雷斯(António Guterres)和日本首相岸田文雄也在10月份表达出相同的担忧。他们希望创立新的AI规则和应对小组,去应对AI在未来带来的风险和挑战。
让他们紧张的主要原因,是一些别有用心的人滥用生成式AI,在网上发布大量虚假的图片和消息或进行诈骗等,这可能导致社会出现大面积的混乱。
奥古特雷斯在10月26日的AI发展和风险的新闻发布会上表示,虽然AI能够带来进步,但也会被恶意使用,从而削弱民主社会的凝聚力和稳定。他宣布,成立联合国的AI咨询机构,用来应对AI快速发展所带来的风险和好处,该机构已选中30个国家的39人加入,大多来自大科技公司的工程师和教授。
日本首相岸田文雄在10月9日也曾表达过担忧。他表示,许多证据指出,生成式AI会带来虚假信息,从而引发社会混乱和威胁社会经济,因此有呼声要求政府在“推动”与“监管”之间取得平衡。
为此,他公布了G7为开发者制定了生成式AI的标准政策。该政策要求开发者必须公开系统功能和风险讯息,以确保人工智慧的透明度。未来会透过一种识别网路上资讯原始发布者的数位技术的“始发者档案(OP)”完成,同时在10月底制定“AI基础设施技术发展”的新措施,强化日本的数据处理系统。
这次岸田文雄公布的规定,可以说是回应了日本新闻协会、日本杂志协会、日本摄影著作权协会、日本书籍出版协会在8月17日共同要求日本政府正视AI、修改法律和限制AI被滥用的可能。
目前,美国正准备立法以更好地控制AI技术。特斯拉的CEO马斯克(Elon Musk)9月在美国国会山举行的一次私人聚会上对参议员和记者们表示,AI对整个社会构成了“文明风险”,我们必须采取积极的反应,而不是被动,原因是AI出错的后果是“严重的”。
德森翔表示,“现在正值需要制定有关于AI的国际规范。虽然AI是一种工具,但它的使用取决于人的道德规范,因此在AI尚未脱离人类的掌控之前,规范出AI的开发标准,可能是最佳时机。”
不过,日本的电脑工程师清原仁(Kiyohara Hitoshi)10月28日告诉大纪元,“目前政府部门或组织制定的政策,可能难以解决实质的问题,因为法律很难真正约束到坏人。另外,人们在完善AI的过程,可能需要付出很大的代价,除非叫停AI或人们的道德水准出现提高,才能有效解决根本问题。”
|
|
|
|