Apple 已从其儿童安全页面中删除了对 CSAM 的引用但是,该功能的工作仍在继续
8 月,Apple 宣布计划推出一项反禁止内容功能,该功能会扫描用户的 iCloud 照片库以查找儿童性虐待材料 如果检测到可疑内容,程序会将材料发送给公司员工进行验证
苹果的计划遭到了许多人和组织的严厉批评,包括安全研究人员,爱德华·斯诺登,电子前沿基金会,Facebook 前安全负责人,政界人士,人权活动家,甚至一些苹果员工大部分批评都集中在使用与监视接壤的危险技术上许多人还指出,它在检测儿童性虐待图像方面效率低下
最初,Apple 试图通过发布开发细节,文档和高管访谈来消除误解并让用户放心最终,该公司决定推迟部署 CSAM
苹果表示,这一决定基于客户,倡导者,研究人员和其他人的反馈。
我们决定在未来几个月留出更多时间来收集信息并在发布这些关键的儿童安全功能之前进行改进,该声明出现在 9 月份的Apple儿童安全页面上,但现在与所有参考资料一起消失了到 CSAM。经常开车的司机,以及只用HomePod音箱播放音乐的用户。开车时候其实多数时间就是语音控制,并且无损音质也不是太重要。。
可是,reddit的用户发现,该项目的描述和技术文档仍然可用苹果发言人 Shane Bauer向The Verge证实,虽然网站上不再提及该功能,但公司的计划没有改变,这意味着 CSAM 检测将在未来出现
。声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。
最近更新
- 漂浮在装满水的水槽中的视频漂浮在装满水的2022-04-08
- 济南各景区场馆严把“入门关”趵突泉、大明2022-04-08
- 预算笔记本电脑将获得大收益5772022-04-08
- 通过使用这台按需超级计算机研究人员能够在2022-04-08
- 工业自动化占比100.0%2022-04-08
- TaptoPayoniPhone旨在让兼2022-04-07
- 从人工智能的角度来看你可能已经躲进了隐形2022-04-07
- 50岁以后的成熟企业家精神的增长速度比澳2022-04-07
- GalaxyS22和S22+现在更适合他2022-04-07
- 这可能是正确的是您必须在拍照时佩戴该设备2022-04-07