澳大利亚电子安全专员公署(eSafety Commissioner)于2025年3月发布了一份报告,总结了行业对强制透明度通知的回应,该通知旨在了解各平台在处理恐怖主义和暴力极端主义(TVE)内容及活动方面的措施。本报告旨在概述行业在此关键领域的实践,并重点关注内容审核与投诉处理机制。
重要内容罗列:
内容审核与处理投诉重点:
报告深入探讨了各平台在内容审核和处理用户投诉方面的实践。在主动检测方面,报告分析了不同平台采用的技术手段和策略,例如使用自动化工具、机器学习算法等来识别潜在的有害内容。然而,报告也强调了人工审核在准确判断内容性质和上下文方面的重要性。
关于用户举报,报告评估了各平台举报流程的便捷性、响应速度和处理结果的透明度。一些平台强调了其用户举报机制的有效性,并提供了处理各类有害内容(包括儿童性剥削和虐待、恐怖主义和暴力极端主义)的专门渠道。
报告还突出了人工审核在内容管理中的关键作用。部分平台提到设立了专门的审核团队,甚至针对特定类型的有害内容(如儿童性剥削和虐待、恐怖主义和暴力极端主义)成立了专门的审核小组。例如,Telegram 提到其专门的审核任务组和升级处理流程“显著缩短了处理关键报告的响应时间”。
此外,Telegram 还强调了与其他组织的合作,以提升其内容审核能力。例如,与全球打击极端主义意识形态中心(Etidal)的合作,在特定时间段内移除了大量与传播恐怖主义意识形态相关的内容。Telegram 也表示将持续拓展与行业领导者和国际社会的联系,以了解最新的内容审核进展和最佳实践。值得注意的是,Telegram 声明,来自可信组织的儿童性剥削和虐待、恐怖主义内容和暴力宣传报告会在1小时内得到处理。截至2024年10月,Telegram 正在加入互联网观察基金会(IWF)的安全计划,以获取已知的儿童性剥削和虐待材料的哈希列表。
总结:
《基本在线安全预期》报告揭示了澳大利亚各在线平台在应对恐怖主义和暴力极端主义内容方面采取的措施和面临的挑战。报告强调了各平台在定义有害内容、主动检测、用户举报和人工审核等方面的实践,并突出了不同平台之间保护用户水平的显著差异。报告中关于审核和处理投诉的部分,尤其强调了人工审核的重要性以及与行业伙伴合作对抗有害内容的趋势。eSafety专员公署的后续行动将值得关注,以推动各平台进一步提升其在线安全保障能力。