11月29日消息,推特的新老板兼首席执行官埃隆·马斯克(Elon Musk)宣称,在该平台上保护儿童安全是当务之急。但据两名知情人士透露,在大规模裁员和辞职潮之后,负责在推特上审核儿童性虐内容(CSAM)的关键团队却只剩下一名正式员工。
目前还不清楚在马斯克接管之前,这个团队中到底有多少人。在职业社交网站LinkedIn上,《连线》杂志确认了四名专门从事儿童安全事务的新加坡员工。但他们公开表示,他们已经于11月份离职。
研究人员表示,不能低估内部儿童安全专家的重要性。这个团队总部设在新加坡,在亚太地区执行推特的CSAM禁令。目前,该团队只剩下一名全职员工。而亚太地区约有43亿人口,约占世界总人口的60%。
新加坡的团队负责推特几个比较繁忙的市场,包括日本。数据聚合器Statista的统计显示,推特在日本拥有5900万用户,仅次于美国。然而,马斯克接管该公司后,新加坡办事处也受到了大范围裁员和辞职的影响。过去一个月,推特解雇了大半员工,然后给剩下的员工发电子邮件,要求他们要么承诺坚持“高强度、长时间工作”,要么接受3个月工资作为遣散费离开。
巴西圣保罗大学的CSAM研究员卡罗琳娜·克里斯托弗莱蒂(Carolina Christofoletti)表示,裁员和辞职潮对推特解决CSAM问题的能力造成的影响“非常令人担忧”。她说:“如果那些在推特内部从事儿童安全工作的人被解雇或大规模辞职,那么认为推特不会受影响的想法绝对是错误的。”
推特的儿童安全专家并不只在该平台上审核CSAM内容。他们还得到了英国“互联网观察基金会”(IWF)和美国“国家失踪和受剥削儿童中心”(NCMEC)等组织的帮助,这些组织在互联网上进行搜索,以识别在推特等平台上分享的CSAM内容。IWF表示,该机构发送给科技公司的数据可以由公司系统自动删除,不需要人工干预。IWF通讯主管艾玛·哈迪(Emma Hardy)表示:“这确保了屏蔽过程尽可能高效。”
但克里斯托弗莱蒂称,这些外部组织通常只专注于最终产品,无法访问推特的内部数据。她将推特内部数据称为分析元数据的关键,可以帮助编写检测代码的人在CSAM内容被共享之前就检测到它们。她说:“唯一能够看到元数据的人就是平台内部的人。”
在双方都同意的情况下,推特允许人们分享成人内容,这让该公司打击CSAM的努力变得非常复杂。荷兰基金会EOKM的负责人阿尔达·格肯斯(Arda Gerkens)表示,该平台用来扫描虐待儿童内容的工具很难区分自愿的成年人和非自愿的儿童。她说:“现在技术还不够好,这也是为何人力资源显得如此重要的原因。”
在马斯克接管之前,推特就在其网站上竭力阻止CSAM内容的传播。在涵盖2021年7月至12月的最新透明度报告中,推特表示,该公司封禁了50多万个CSAM账户,与前六个月相比增长了31%。