I ett uttalande nyligen (via 9to5Mac) sa Apple:
”Förra månaden tillkännagav vi planer för funktioner som är avsedda att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem och begränsa spridningen av material för sexuellt övergrepp mot barn. Baserat på feedback från kunder, förespråkargrupper, forskare och andra har vi beslutat att ta ytterligare tid under de kommande månaderna för att samla in input och göra förbättringar innan vi släpper dessa kritiskt viktiga barnsäkerhetsfunktioner. ”
Apple planerade tidigare att släppa de nya barnsäkerhetsfunktionerna som en del av iOS 15, iPadOS 15 och macOS Monterey -uppdateringar. Uppdateringarna innehåller dock inte den nya barnsäkerhetsfunktionen när de lanseras senare i år. För närvarande har Apple inte delat en preliminär tidslinje för lanseringen, och den har inte lämnat några detaljer om de ändringar som den planerar att göra för att hantera integritetshänsynen.
Enkelt uttryckt matchar Apples CSAM -skanningsfunktion i sitt nuvarande tillstånd foton på din iPhone eller iPad med en databas med kända CSAM -bilder från barnsäkerhetsorganisationer. Om den upptäcker någon CSAM på en enhet kan den proaktivt varna ett team av mänskliga granskare som kan kontakta brottsbekämpning efter att ha verifierat materialet. Säkerhetsforskare hävdar att medan algoritmen för närvarande är utbildad för att upptäcka CSAM, kan den anpassas för att söka efter andra bilder eller text, vilket gör den till ett värdefullt verktyg för auktoritära regeringar.