Allt om CSAM - Apples nya policy som scannar bilder

2021-09-03

Inför lanseringen av Apples nya operativsystem nu i höst har företaget presenterat tre nya funktioner som är tänkta att skydda barn från sexuellt innehåll. Apple planerar exempelvis att använda den så kallade CSAM-tekniken för att genomsöka iPhones efter så kallat övergreppsmaterial, som exempelvis barnporr. Nedan kan du läsa mer om Apples nya funktioner och hur dessa fungerar.

Hur fungerar CSAM?

CSAM (Child Sexual Abuse Material) är en databas med digitala fingeravtryck, så kallade checksummor, på bilder som hittats i samband med polisutredningar och som visar övergrepp mot barn. Bilder som laddas upp till iCloud ska scannas och kontrolleras mot CSAMs databas och på så sätt hjälpa till att hindra material som kan förknippas med barnpornografi. Alla bilder scannas inte, utan enbart foton som laddas upp till iCloud. Det är dessutom inte bilderna som scannas, utan en bild förses med ett digitalt fingeravtryck som körs mot CSAM. Om bildens digitala fingeravtryck matchas mot CSAM skickas en krypterad version av bilden till Apple, och sedan kan informationen lämnas över till polis. Hela processen är starkt krypterad och det krävs ett visst antal matchningar innan Apple kan se innehållet. Apple får dessutom inte se det faktiskt bilderna, utan “visuella derivat”. Exakt vad visuella derivat innebär har Apple inte gått ut med, men det handlar troligtvis som suddiga/lågupplösta tumnaglar som endast ska fungera för att Apple ska kunna kontrollera att bilden i fråga verkar matcha bilderna i databasen.

Den nya policyn har fått stor uppmärksamhet och de finns de som är mycket kritiska. Många fruktar att tekniken kan användas till andra ändamål, och att regeringar kommer att kunna pressa Apple att använda tekniken för att söka efter andra typer av bilder. Mycket av kritiken bygger dock på missförstånd. För att fler människor ska förstå hur tekniken faktiskt kommer att fungera har Apple utarbetat ett dokument med frågor och svar: Expanded Protections for Children.

Ytterligare funktioner inom samma område

Apple planerar även att lansera ett nytt tillägg i appen Meddelanden, Communication safety in Messages, som kan aktiveras på barnkonton inställda av vårdnadshavare via iClouds familjedelning. Tanken är att barnets iPhone ska varna om de tar emot, eller försöker skicka, en bild av sexuell karaktär. Om innehållet i bilden kan tolkas som sexuellt får barnet en varning och måste trycka förbi två dialogrutor innan bilden kan skickas/visas. För barn som är under 13 år skickas dessutom en notis till föräldrarna enligt inställningar i iClouds familjedelning. På så sätt kan föräldrar varnas i tid.

Den tredje funktionen som Apple presenterar är en uppdatering av Siri och Sök som ska göra det lättare att hitta rätt för den som vill rapportera utnyttjande av barn. Sira ska även kunna ge förslag på hjälp för användare som gör sökningar som förknippas med barnporr.

I första hand ska samtliga funktioner lanseras i USA, men tanken är att Apple senare även ska inleda liknande åtgärder i Europa där den lokala lagstiftningen tillåter det.