ย้อนกลับไปเมื่อ 3 ปีก่อนที่ Apple ประกาศแผนในการเพิ่มระบบสแกนภาพในเชิงลามกอนาจารของผู้เยาว์ (CSAM) เข้ามาในแพลตฟอร์มต่าง ๆ ของตน ซึ่งจะทำให้สามารถเข้าไปสแกนคลังภาพของผู้ใช้งานบน iCloud ได้ด้วย แต่ก็ถูกกระแสต่อต้านจากสังคมในประเด็นเรื่องการละเมิดความเป็นส่วนตัวของผู้ใช้งาน จนท้ายที่สุดก็ต้องพับแผนดังกล่าวไป
แต่ล่าสุดก็กลายเป็นว่า Apple ถูกฟ้องร้องจากการที่ไม่ปฏิบัติตามแผนงานเพิ่มระบบสแกนภาพอนาจารเด็กลงในแพลตฟอร์มของตน โดยมีข้อมูลจาก New York Times ว่ามีการส่งฟ้องที่ศาลแคลิฟอร์เนียเหนือ ระบุมีจำนวนผู้เสียหายจากการละเลยดังกล่าวอยู่ที่ 2,680 คน มูลค่าความเสียหายรวม 1.2 พันล้านเหรียญสหรัฐฯ ซึ่งข้อกล่าวหาที่มีต่อ Apple ก็คือเนื่องจากมีการประกาศแผนออกมาแล้ว แต่กลับไม่ได้มีการนำมาใช้งานจริง ไม่มีการนำมาใช้ตรวจสอบใด ๆ อย่างที่ระบุในแผนเลย จนก่อให้เกิดความเสียหายและมีภาพจำนวนมากยังคงอยู่ในระบบต่อไป
สำหรับกรณีนี้ โฆษกของ Apple ได้ให้ข้อมูลกับทาง Engadget สรุปได้คร่าว ๆ ว่า Apple ก็มองว่าปัญหาดังกล่าวเป็นปัญหาใหญ่ และมีการต่อสู้มาโดยตลอด ซึ่งก็มีการพัฒนาระบบที่จะให้ได้ทั้งความปลอดภัยและความเป็นส่วนตัวของข้อมูลผู้ใช้งานไปพร้อมกัน ตัวอย่างฟีเจอร์ที่มีการพัฒนาขึ้นมาก็เช่นการแจ้งคำเตือนแก่ผู้เยาว์ ในกรณีที่ได้รับข้อความหรือเนื้อหาที่ส่อไปในเชิงอนาจาร เพื่อป้องกันการเกิดปัญหาในลักษณะดังกล่าวกับเยาวชน
ที่มา: Engadget