News

Guangdong BAIDU Special Cement Building Materials Co.,Ltd
— 新闻中心 —

苹果为FaceTime添加了裸露的发现,苹果在隐私和道

▲ 苹果和岳云鹏合作广告海报. 图片来自:Apple您可能已经看到与Apple和Yue Yunpeng合作的广告。主要建议是:确保隐私和安全性,这是非常iPhone。这就是苹果所说的,实际上是。但是,当将“隐私”和“道德”放在规模的任一端时,即使苹果也会处理一个问题。 ▲Apple和Yue Yunpeng与广告海报一起工作。照片来自:Apple根据9TO5MAC的说法,Apple在iOS 26开发人员预览版中启动了FaceTime Naked功能,旨在在视频通话中查看Nakedness的无效内容。据报道,Apple将使用设备侧面的AI算法来实时调用中识别裸露内容。当系统识别出可能的裸照时,它立即停止了视频通话并警告。苹果说,此功能的最初意图将将其应用于儿童帐户,并为青少年提供更安全的数字社交环境。 ▲面冻结界面。照片来自:9to5MAC此功能源自几年前Apple发起的CSAM(儿童性虐待材料)计划。但是由于某种原因,此功能已扩展到iOS开发人员26版中所有年龄段的用户。换句话说,成人用户也受到“保护”。尽管苹果强调所有身份工作都在设备上进行了本地处理,并且数据不会上传到云,但年龄范围的扩展导致社交媒体上的广泛争议。一个名叫Krazygreekguy的用户对9TO5MAC发表了评论:我理解其背后的想法,但他们无权对那些老年人的人进行这种控制。没有组织有权侵犯人们的隐私。 ▲促销苹果的图像。照片来自:苹果换句话说,人们记得,扩大年龄的范围是苹果独特力量的扩展,因此它可以达到过度干预私人生活的情况,甚至可以在场景中扩展E与色情目标完全无关。试想一下,如果您在家里与一个孩子交谈,您可能错过了一个系统不正确的系统,因为您没有衬衫或修理衣服,导致视频被封锁:我的iPhone是否认为我是弯曲的? ▲faceTime。照片来自:苹果实际上,FaceTime从事该行业已有14年了。作为苹果生态系统的“旧级”功能,这不是第一次引起争议。在2019年,FaceTime导致用户在没有连接的情况下听到另一方的电话。尽管苹果迅速解决了弱点,但许多人对苹果在隐私宣传下的真正保护能力感到怀疑。 ▲苹果促销图片。照片来自:作为公司的主要价值,Apple始终对用户隐私保护非常重要。苹果关注很长一段时间仍然可能会注意到苹果在2015年在加利福尼亚州圣贝纳迪诺射击之后的苹果公司击中FBI的事件,Fupang Get I关于恐怖活动的信息,BI要求解锁杀手-Tao使用的iPhone,但苹果拒绝了。当时,苹果的首席执行官蒂姆·库克(Tim Cook)说:打开后门时,它将不会关闭,这将危害所有用户的安全性和隐私。 ▲faceTime接口。照片来自:苹果,但苹果甚至在隐私问题上引起了一些争议。例如,上面提到的CSAM扫描计划在启动时也受到批评。从iOS 15到2021年,Apple的照片将用户上传到ICLOUD,并通过强大的美国代理商通过当地设备上的NeuralHash技术维护的CSAM数据库。当预设阈值发生时,Apple将拒绝基于数据的数据并进行审查。确认后,帐户将禁用并将其报告给国家失踪和虐待儿童中心(NCMEC)。苹果说,此功能的目的是发现和揭露儿童性别的罪犯,从技术上保护用户的公关最大程度的诱惑性,并防止不当行为和虐待。但是,各种隐私保护组织和安全专家讨论了苹果是否偏离了对隐私保护的同样承诺。毕竟,CSAM扫描仍在识别用户上传的隐私信息。面对压力,苹果宣布将推迟该功能的推出,以支持其他儿童保护步骤,例如通信信息安全和Siri搜索干预干预能力。对于苹果来说,“道德”和“隐私”也不可能拥有相同的情况。回到我一开始提到的FaceTime裸体检测:从Apple的原始意图来看,这是一项安全功能,旨在更好地保护青少年。这有助于防止在视频通话中无法接触不适当的裸露内容的青少年 - 类似的性幻觉造成案例和在手机视频通话中作弊的案例在全球范围内无尽。有超过十亿用户,苹果应该带来社会责任。但另一方面,这种“自动干预”的边界仍然是一个重要的问题。当将公共道德和个人隐私放在规模的两端时,如何权衡利弊并做出“正确”的决定。它可能会干扰苹果很长一段时间。本文的主意:Zhou Qianto,Xiao Qinpeng
Tel
Mail
Map
Share
Contact