ย้อนกลับไปเมื่อ 3 ปีก่อนที่ Apple ประกาศแผนในการเพิ่มระบบสแกนภาพในเชิงลามกอนาจารของผู้เยาว์ (CSAM) เข้ามาในแพลตฟอร์มต่าง ๆ ของตน ซึ่งจะทำให้สามารถเข้าไปสแกนคลังภาพของผู้ใช้งานบน iCloud ได้ด้วย แต่ก็ถูกกระแสต่อต้านจากสังคมในประเด็นเรื่องการละเมิดความเป็นส่วนตัวของผู้ใช้งาน จนท้ายที่สุดก็ต้องพับแผนดังกล่าวไป