作者x090512319 (小夜)
看板iOS
标题[问题] iCloud 有踩到红线的照片会被锁号?
时间Mon Aug 4 22:59:21 2025
https://i.imgur.com/bS7J7kB.jpeg
刚刚看到讨论区,有人的iCloud被锁
下面有人回覆到
网友:(有听过传说,当上面有 未成年 幼儿的XXX 影片、照片,帐号就会被封)
https://i.imgur.com/h9gi37j.jpeg
这一点是真的吗?
还是只是谣言?
纯粹好奇
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 49.216.173.175 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/iOS/M.1754319563.A.178.html
※ 编辑: x090512319 (49.216.173.175 台湾), 08/04/2025 23:05:51
1F:→ acanjian: 你可以自己试试:/ 08/04 23:13
2F:→ ankai: 毕竟美国有FBI 正常 08/04 23:23
3F:→ xup6ru0454: XXX定义很广,如果是那个的话,被锁不意外吧 08/04 23:44
4F:→ xBox1Pro: Google是有一堆案例 08/05 01:26
5F:推 botdf: 根据报导是没有,2021年时因为多方抗议,Apple宣布终止CS 08/05 07:10
6F:→ botdf: AM,你用CSAM当关键字看看当时新闻。其实我个人也不是反对 08/05 07:10
7F:→ botdf: CSAM,但是Google这种偶有误判,直接封几乎无申诉可能性, 08/05 07:10
8F:→ botdf: 就让人不会想用。 08/05 07:10
9F:推 p4585424: 楼上说了这麽多,原po图中用icloud还是被封了 08/05 08:05
10F:→ p4585424: 虽然还不清楚那个人到底传了什麽图片上去 08/05 08:05
11F:推 pm2001: 何必听说 直接写信问苹果客服阿 08/05 09:27
12F:→ zo6596001: 之前苹果的做法是检查hash,几乎不可能误判 08/05 11:39
13F:→ zo6596001: 除非苹果有改规则 08/05 11:40
14F:推 xhl12000: 苹果在最新(2024/9/16)的iCloud条款的 五 B. 3.有加入 08/05 12:12
15F:→ xhl12000: 儿童安全(含CSAM)条款了 08/05 12:12
16F:→ xhl12000: 根据条款苹果无需你同意就拿删除内容 08/05 12:14
17F:→ xhl12000: 并且你违规苹果是可以删除帐号的 08/05 12:14
18F:推 xhl12000: 结论:是真的可以删你帐号 08/05 12:16
19F:→ xhl12000: 刚刚查看了2022及2023版的条款尚无 08/05 13:11
20F:→ xhl12000: 真的是2024条款加进去的 08/05 13:12
21F:推 getx105: 所以是幼儿的什麽影片?如果是违法的被锁刚好而已 08/05 13:57
22F:推 gary861226: 二次元或动漫二创那种色色图也算吗?虽然我还是用Goo 08/05 14:09
23F:→ gary861226: gle的 08/05 14:09
24F:推 lianpig5566: 看来只能用NAS了...... 08/05 14:27
25F:→ botdf: 用hash所以Apple一定不会误判? 你真的知道你在说什麽吗 08/05 14:58
26F:推 Baternest: hash不会误判是来搞笑的吗? 08/05 15:48
27F:推 pmes9866: 苹果的HASH不会误判 08/05 16:20
28F:推 duke791110: 好像有人搞不清楚Hash的产生方式和用途喔 08/06 08:19
29F:→ ruffryders: 创意XX ? 08/06 10:23
30F:推 htps0763: 苹果不清楚,谷歌一堆案例有人分享,有疑虑就别用云端 08/06 13:01
31F:→ htps0763: 存照片 08/06 13:01
32F:推 silomin: 所以啦不要相信云端多麽稳定有保障有隐私 有问题会出问题 08/06 13:16
33F:推 raphael0911: 开Advanced Data Protection(进阶资料防护),如果 08/06 16:08
34F:→ raphael0911: 你需要的话。 08/06 16:08
35F:推 jhjhs33504: 苹果的扫描在档案加密状态也能加密扫描还有专利的样子 08/06 18:51
36F:推 g5637128: 云端硬碟都这样吧 08/06 19:55
37F:→ g5637128: 以前google不是就有人拍自己小孩被ban的 08/06 19:56
38F:推 jakechen1027: Google 那次是家长拍小孩的患处给医生远端诊断,结 08/07 16:33
39F:→ jakechen1027: 果就被判定是违规 08/07 16:33
40F:推 deolinwind: 审查制度是有罪推定,不要拿无罪推定的经验来判断 08/08 00:39
41F:→ timTan: 只有国家法律是无罪推定 08/08 09:41
42F:→ botdf: 那位被ban的,其实并没有任何证据是因为CSAM而被锁 08/08 10:07
43F:→ botdf: 只是这个讨论串都朝这个方向猜,事实上iCloud TOC的规定 08/08 10:08
44F:→ botdf: 是要求使用者不得散布CSAM素材,并没有说会扫描CSAM 08/08 10:08
45F:→ botdf: 因为2024年底时,Apple还因为没有执行CSAM扫描而被CSAM 08/08 10:10
46F:→ botdf: 受害者控告,这都是新版iCloud TOC後的事情 08/08 10:10
47F:→ botdf: 如果真有扫描,怎麽还会被告,另外有些宣称因CSAM而被ban的 08/08 10:12
48F:→ botdf: 据说Apple只会去扫描那些利用iCloud分享功能而公开的素材 08/08 10:13
49F:→ botdf: 而非Apple去扫描iCloud图库 08/08 10:14
50F:→ botdf: 上面提到的进阶资料防护,其原理应该就真的可以避免被扫描 08/08 10:15
51F:→ botdf: 没开的还是开一开吧,不怕有CSAM素材,而是怕被误判没得救 08/08 10:16
52F:推 e04bank: 真的 08/08 16:30
53F:推 lianpig5566: 如果iOS是在装置端进行扫描的话 开进阶资料防护应该 08/12 21:05
54F:→ lianpig5566: 也没用吧 毕竟装置本身就可以解密了 08/12 21:05