新报告评估人工智能的进展和风险

导读根据评估该领域状况的国际专家小组的一份新报告,人工智能在其发展过程中已经达到了一个关键的转折点语言处理、计算机视觉和模式识别方面的

根据评估该领域状况的国际专家小组的一份新报告,人工智能在其发展过程中已经达到了一个关键的转折点语言处理、计算机视觉和模式识别方面的巨大进步意味着人工智能每天都在接触人们的生活——从帮助人们选择电影到帮助医疗诊断。然而,随着这一成功,人们重新迫切需要了解和减轻人工智能驱动系统的风险和缺点,例如算法歧视或使用人工智能进行蓄意欺骗。计算机科学家必须与社会科学和法律专家合作,以确保最大限度地减少人工智能的陷阱。

这些结论来自一份题为“汇聚力量,汇聚风暴:人工智能百年研究 (AI100) 2021 年研究小组报告”的报告,该报告由来自计算机科学、公共政策、心理学、社会学和社会学的专家小组汇编而成。其他学科。AI100 是由斯坦福大学以人为中心的人工智能研究所主办的一个正在进行的项目,旨在监测人工智能的进展并指导其未来的发展。这份新报告是 AI100 项目发布的第二份报告,评估了 2016 年至 2021 年间人工智能的发展。

布朗大学计算机科学教授迈克尔·利特曼 (Michael Littman) 说:“在过去的五年里,人工智能已经从主要发生在研究实验室或其他高度控制的环境中的事情飞跃到影响人们生活的社会之外的事情。”报告面板。“这真的很令人兴奋,因为这项技术正在做一些我们在 5 到 10 年前只能梦想的惊人事情。但与此同时,该领域正在应对这项技术的社会影响,我认为下一个Frontier 正在考虑如何从人工智能中获益,同时将风险降至最低。”

该报告于 9 月 16 日星期四发布,旨在回答一组 14 个问题,探讨人工智能发展的关键领域。这些问题由 AI100 常务委员会制定,该委员会由著名的 AI 领导者组成。委员会随后召集了一个由 17 名研究人员和专家组成的小组来回答这些问题。这些问题包括“人工智能最重要的进步是什么?” 和“最鼓舞人心的开放式挑战是什么?” 其他问题涉及人工智能的主要风险和危险、它对社会的影响、公众认知和该领域的未来。

“虽然过去几年有很多关于 AI 影响的报告,但 AI100 报告的独特之处在于它们都是由 AI 内部人士撰写的——他们是创建 AI 算法或研究其对社会影响的专家,并将其作为主要职业活动——并且它们是正在进行的、纵向的、长达一个世纪的研究的一部分,”德克萨斯大学奥斯汀分校计算机科学教授、索尼人工智能公司执行董事兼 AI100 常务委员会彼得斯通说。“2021 年的报告对 AI100 的这一纵向方面至关重要,因为它通过评论其间五年的变化与 2016 年的报告密切相关。

微软首席科学官、人工智能百年研究的合创始人埃里克·霍维茨 (Eric Horvitz) 称赞了研究小组的工作。

霍维茨说:“不同的人工智能专家小组就这份里程碑报告分享的见解给我留下了深刻的印象。” “2021 年的报告很好地描述了人工智能的现状和发展方向,包括评估我们当前理解的前沿,以及对人工智能对人类和社会影响的未来关键机遇和挑战的指导。”

在人工智能的进步方面,专家组注意到人工智能各个子领域的重大进展,包括语音和语言处理、计算机视觉和其他领域。这一进展在很大程度上是由机器学习技术的进步推动的,尤其是深度学习系统,这些技术近年来从学术环境到日常应用取得了飞跃。

例如,在自然语言处理领域,人工智能驱动的系统现在不仅能够识别单词,还能够理解它们在语法上的使用方式以及含义如何在不同的上下文中发生变化。这使得更好的网络搜索、预测文本应用程序、聊天机器人等成为可能。其中一些系统现在能够生成难以与人工生成的文本区分开来的原始文本。

在其他地方,人工智能系统正在以与训练有素的病理学家相媲美的准确度诊断癌症和其他疾病。使用人工智能的研究技术产生了对人类基因组的新见解,并加速了新药物的发现。虽然承诺已久的自动驾驶汽车尚未得到广泛使用,但基于人工智能的驾驶员辅助系统,如车道偏离警告和自适应巡航控制,是大多数新车的标准配置。

Littman 说,最近的一些 AI 进展可能会被该领域之外的观察者忽视,但实际上反映了底层 AI 技术的巨大进步。一个相关的例子是在视频会议中使用背景图像,在 大流行期间,这成为许多人在家工作生活中无处不在的一部分。

“为了将你置于背景图像的前面,系统必须将你与身后的东西区分开来——这并不容易仅仅通过像素组合来实现,”Littman 说。“能够很好地理解图像以区分前景和背景是五年前可能在实验室中发生的事情,但肯定不会在每个人的计算机上实时以高帧速率发生。它是相当惊人的进步。”

至于人工智能的风险和危险,该小组并没有设想超级智能机器接管世界的反乌托邦场景。人工智能的真正危险更加微妙,但同样令人担忧。

报告中引用的一些危险源于故意滥用人工智能——用于传播错误信息或损害人们声誉的深度伪造图像和视频,或用于操纵公共话语和意见的在线机器人。其他危险源于“公众意识的某些角落与人工智能决策相关的中立和公正光环,导致系统被接受为客观的,即使它们可能是有偏见的历史决策甚至公然歧视的结果,”面板写道。这在执法等领域尤其令人担忧,在这些领域,预测系统已被证明会对有色人种社区产生不利影响,或者在医疗保健领域,保险算法中嵌入的种族偏见会影响人们获得适当护理的机会。

随着人工智能使用的增加,这类问题可能会变得更加普遍。利特曼说,好消息是该领域正在认真对待这些危险,并积极寻求心理学、公共政策和其他领域专家的意见,以探索减轻它们的方法。Littman 说,制作该报告的小组的组成反映了该领域正在扩大的视野。

“该小组由几乎一半的社会科学家和一半的计算机科学人员组成,我对社会科学家对人工智能的了解如此之深感到非常惊喜,”Littman 说。“我们现在有在各种不同领域工作的人,他们被认为是人工智能专家。这是一个积极的趋势。”

展望未来,该小组得出的结论是,政府、学术界和工业界将需要发挥更大的作用,以确保人工智能发展以服务于更大的利益。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢