NEWS UPDATE: Apple ยกเลิก CSAM ระบบตรวจจับภาพการล่วงละเมิดทางเพศเด็ก

หลังจาก Apple เคยออกมายืนยันว่าจะเพิ่มระบบสำหรับตรวจจับวัตถุหรือภาพที่แสดงการล่วงละเมิดทางเพศเด็ก CSAM บนรูปภาพที่ถูกอัปโหลดเข้าสู่ iCloud ทั้งบน iPhone, iPad เพื่อตรวจสอบว่าเนื้อหาดังกล่าวมีการล่วงละเมิดทางเพศเด็กหรือไม่ ซึ่งล่าสุด Apple ได้ยุติแผนการนี้ลง เนื่องจากห่วงถึงความปลอดภัยของลูกค้าเป็นหลักในการเข้าถึงข้อมูล โดยจะหาวิธีอื่นเพิ่มเติมเพื่อปกป้องเด็กๆ แทน

Apple ได้ยุติการพัฒนาเทคโนโลยีการตรวจหาสื่อที่มีการล่วงละเมิดทางเพศต่อเด็ก (CSAM) ในขณะที่เก็บไว้ในอุปกรณ์ของผู้ใช้ตามรายงานของ The Wall Street Journal  โดยตอนแรก Apple จะอัปเดตให้ใน iOS 15 และ iPadOS 15 ภายในสิ้นปี 2021

ซึ่งการทำงานของ CSAM เป็นระบบที่สามารถสแกนภาพที่ถูกอัปโหลดขึ้นไปใน iCloud เพื่อตรวจสอบว่าเนื้อหาดังกล่าวมีการล่วงละเมิดทางเพศเด็กหรือไม่ และมีโอกาสผิดพลาดน้อยมาก

ทาง Apple จึงพยายามหาแนวทางใหม่ในการปกป้องเด็กๆ โดยใช้การเข้ารหัสแบบ end-to-end เพื่อรวมการสำรองข้อมูลโทรศัพท์และเพิ่มฟีเจอร์ใหม่อื่นๆ ที่มุ่งเน้นการรักษาความเป็นส่วนตัวและความปลอดภัยมากขึ้น

อ้างอิง
droidsans

Supinya R.

ชอบอ่านนิยายสยองขวัญ ชอบเขียนไดอารี่ และเป็นคุณแม่จำเป็นในบางเวลา :-)

COMMENTS ARE OFF THIS POST