首页 小组 话题 文章 相册 用户 唠叨 搜索 我的社区
全部 电报小程序

澳大利亚电子安全专员公署《基本在线安全预期》报告(2025年3月)摘要:行业回应与审核处理重点

admin
发表于 2025-03-18 15:20:51

澳大利亚电子安全专员公署(eSafety Commissioner)于2025年3月发布了一份报告,总结了行业对强制透明度通知的回应,该通知旨在了解各平台在处理恐怖主义和暴力极端主义(TVE)内容及活动方面的措施。本报告旨在概述行业在此关键领域的实践,并重点关注内容审核与投诉处理机制。

重要内容罗列:


  • 行业回应概述: 报告总结了多家在线服务提供商对eSafety专员公署发出的透明度通知的回应。

  • 行政复议法庭事项及不合规情况: 报告提及了部分服务提供商可能存在不遵守通知的情况,以及由此引发的行政复议法庭的相关事宜。

  • 用户TVE保护水平差异显著: 报告指出,不同平台在保护用户免受恐怖主义和暴力极端主义内容侵害方面存在显著差异。

  • 接收到的儿童性剥削和虐待信息: 报告中包含关于平台接收到的儿童性剥削和虐待(CSEA)信息的相关情况。

  • 进一步提升透明度: 报告强调了提升在线平台内容审核和处理机制透明度的重要性。

  • 术语表与通知信息: 报告提供了相关术语的解释,并详细介绍了本次透明度通知的目的、接收对象、提问内容和流程。

  • 信息接收后的处理流程: 报告概述了eSafety专员公署在收到行业回应后所采取的处理步骤。

  • 已发布与排除的信息: 报告说明了哪些信息已被公开,以及哪些信息因特定原因被排除在公开范围之外(例如,涉及行政复议法庭的事项)。

  • 后续步骤: 报告展望了eSafety专员公署在本次信息收集后的后续行动。

  • 合规性与eSafety的行动: 报告强调了服务提供商遵守透明度通知的重要性,并阐述了eSafety专员公署要求报告的权力。

  • 不合规的认定: 报告中提到了eSafety专员公署对部分服务提供商不合规的认定。

  • 透明度:各议题的回应: 报告的重点部分,详细记录了各平台在以下关键议题上的回应:

    • “恐怖主义”和“暴力极端主义”内容及活动的定义: 各平台如何定义和识别此类有害内容。

    • 主动检测: 各平台采取了哪些主动措施来检测和移除恐怖主义和暴力极端主义内容。

    • 用户举报: 各平台提供的用户举报机制,以及如何处理用户举报。

    • 人工审核: 各平台在内容审核过程中使用人工审核的情况。




内容审核与处理投诉重点:

报告深入探讨了各平台在内容审核和处理用户投诉方面的实践。在主动检测方面,报告分析了不同平台采用的技术手段和策略,例如使用自动化工具、机器学习算法等来识别潜在的有害内容。然而,报告也强调了人工审核在准确判断内容性质和上下文方面的重要性。

关于用户举报,报告评估了各平台举报流程的便捷性、响应速度和处理结果的透明度。一些平台强调了其用户举报机制的有效性,并提供了处理各类有害内容(包括儿童性剥削和虐待、恐怖主义和暴力极端主义)的专门渠道。

报告还突出了人工审核在内容管理中的关键作用。部分平台提到设立了专门的审核团队,甚至针对特定类型的有害内容(如儿童性剥削和虐待、恐怖主义和暴力极端主义)成立了专门的审核小组。例如,Telegram 提到其专门的审核任务组和升级处理流程“显著缩短了处理关键报告的响应时间”。

此外,Telegram 还强调了与其他组织的合作,以提升其内容审核能力。例如,与全球打击极端主义意识形态中心(Etidal)的合作,在特定时间段内移除了大量与传播恐怖主义意识形态相关的内容。Telegram 也表示将持续拓展与行业领导者和国际社会的联系,以了解最新的内容审核进展和最佳实践。值得注意的是,Telegram 声明,来自可信组织的儿童性剥削和虐待、恐怖主义内容和暴力宣传报告会在1小时内得到处理。截至2024年10月,Telegram 正在加入互联网观察基金会(IWF)的安全计划,以获取已知的儿童性剥削和虐待材料的哈希列表。

总结:

《基本在线安全预期》报告揭示了澳大利亚各在线平台在应对恐怖主义和暴力极端主义内容方面采取的措施和面临的挑战。报告强调了各平台在定义有害内容、主动检测、用户举报和人工审核等方面的实践,并突出了不同平台之间保护用户水平的显著差异。报告中关于审核和处理投诉的部分,尤其强调了人工审核的重要性以及与行业伙伴合作对抗有害内容的趋势。eSafety专员公署的后续行动将值得关注,以推动各平台进一步提升其在线安全保障能力。




99 1

评论 (1)
  • admin

    admin 作者 2025-03-18 15:25:14 1#

    私人聊天和加密聊天的审核 

    Telegram不会主动扫描私人聊天内容,只有在接收方提交举报后才会进行自动检查或将消息转发给审核员加密聊天中的消息即使被举报也不会转发给审核员,而是使用不公开的"替代信号"


    群组和频道的审核 

    大多数私人群组和频道对审核员不可见,除非有参与者提交举报

    公开可见的频道、群组和机器人禁止宣传暴力和分发非法色情内容

    对审核员而言,如果通过邀请链接可以被公众访问的群组或频道,即使没有用户名也被视为"公开"

    所有私人群组和频道中的照片和视频都会被系统扫描以检测已知的非法内容


    自动检测系统 

    Telegram能够自动检测照片、视频和文本中的非法内容,但仅在特定情况下进行对于已知的非法内容(极端主义和儿童虐待),Telegram会在私人聊天以外的所有应用部分自动扫描

    对于新的潜在非法内容,只有在被举报的项目、公共群组和聊天、故事、头像等中才会自动扫描Telegram主要使用自己的签名数据库进行自动检测,同时也定期审查Europol的签名数据库


    审核团队和响应时间 

    Telegram没有直接雇佣内容审核员,而是与150名合同审核员合作审核员覆盖60种语言,但缺乏越南语

    审核员对极端主义内容的私人聊天举报平均响应时间为18小时,对儿童虐待内容为11小时

    来自可信组织的举报平均响应时间为1小时 

    封禁标准和申诉成功率 永久封禁的标准包括:传播呼吁暴力的材料、传播令人震惊的图像、为恐怖组织筹集资金等

    对自动封禁的极端主义内容的申诉成功率为3%,对儿童虐待内容的申诉成功率为8%


    其他审核信息 

    删除聊天或频道后,审核员会手动检查用户用来查找该社区的最流行搜索查询如果群组管理员本身没有违反规则,Telegram可能会暂时关闭群组,给管理员机会消除违规行为

    对于儿童虐待相关的任何违规行为通常会导致相关账户和社区被永久删除