Apple försenar CSAM -skanning mitt i motreaktion
3 September 2021Apple har meddelat att det fördröjer sina planer på att genomföra CSAM (Child Sexual Abuse Material) -skanning bland reaktioner från alla håll.
Apple meddelade tidigare planer på att implementera CSAM -skanning i nästa versioner av iOS, iPadOS och macOS. Medan många företag, inklusive Microsoft, Google, Dropbox och Facebook, alla skannar sina servrar efter CSAM, var Apples lösning unik i att en del av processen skulle äga rum på enheten.
Motreaktionen var omedelbar och allvarlig, vilket ledde till att Apple försökte förklara hur systemet fungerade. I slutändan har det inte varit framgångsrikt att avhjälpa människors oro och fördröjer nu funktionen, enligt ett uttalande om dess hemsida.
Uppdatering från och med 3 september 2021: Tidigare meddelade vi planer för funktioner som är avsedda att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem och för att begränsa spridningen av material för sexuellt övergrepp mot barn. Baserat på feedback från kunder, påverkansgrupper, forskare och andra har vi beslutat att ta ytterligare tid under de kommande månaderna för att samla in input och göra förbättringar innan vi släpper dessa kritiskt viktiga barnsäkerhetsfunktioner.
Tyvärr är Apples uttalande liten komfort, eftersom många har påpekat att varje försök att fortsätta med det ursprungliga målet är extremt farligt. I vår kommande flerdelade uppdelning av Apples planer kommer vi att förklara varför.