互联网资讯 / 人工智能 · 2023年11月17日 0

AI能准确检测出94.7%的删除仇恨言论

据报道,Facebook于周四宣布其人工智能软件能够检测出平台上94.7%的删除仇恨言论。Facebook的首席技术官麦克·斯瑞普菲在一篇博客文章中透露了这一数据,并指出一年前这一比例为80.5%,而在2017年时仅为24%。在Facebook最新发布的《社区标准执行报告》中也提及了这一数字。

社交媒体公司如Facebook和Twitter常因未能及时删除仇恨言论(包括种族歧视和宗教攻击)而受到批评。这些公司依赖成千上万的内容审查员来管理平台上分享的帖子、照片和视频。周三,超过200名Facebook审查员在一封致扎克伯格的公开信中表示,疫情期间,公司强制要求他们回到办公室工作,忽视了他们的生命安全。然而,仅依靠人类审查员显然不够。如今,科技巨头们越来越依赖人工智能,这种技术可以从经验中自动改进算法。

Facebook在人工智能方面的一个核心目标是部署先进的机器学习技术,以保护用户免受有害内容的影响。随着数十亿人使用其平台,Facebook依赖人工智能来扩展内容审核工作,并尽可能自动化内容处理决策,旨在快速而准确地识别各种形式的仇恨言论、虚假信息及其他违反平台政策的内容。

尽管如此,Facebook的人工智能软件仍在某些方面面临挑战。例如,该软件在识别图文含义、理解反讽和俚语时并不总是准确。然而,在许多情况下,人类审查员可以迅速判断内容是否违反Facebook的政策。Facebook表示,最近部署了两项新的人工智能技术以应对这些挑战。第一项名为“增强诚信优化器”(RIO),能够从真实的在线示例和指标中学习,而非依赖离线数据集;第二项是“LinfoRMeR”人工智能架构,允许Facebook使用复杂的语言理解模型,此前该模型因过于庞大而无法大规模应用。

目前,Facebook在产品中使用RIO和LinfoRMeR,以在全球范围内分析Facebook和Instagram上的内容。此外,Facebook还开发了一种新工具,以检测深度伪造(deepfakes)视频,并对现有的“SiMSeaRchNet”系统进行了改进,该系统是一个图像匹配工具,旨在检测平台上的虚假信息。这些创新结合在一起,使得Facebook的人工智能系统能够对内容有更深入和广泛的理解,并在新词汇和图像出现时更快速地学习。

斯瑞普菲指出,Facebook面临的挑战“十分复杂、细微,并且发展迅速”。他还表示,错误地将内容标记为仇恨言论或虚假信息可能会“阻碍人们自由表达的能力”。

[[[IMG_1]]]
[[[IMG_2]]]
[[[IMG_3]]]
[[[IMG_4]]]
[[[IMG_5]]]