Apple kommer att undersöka dina privata foton efter barnporr

Apple genomsöker användarnas bilder som är sparade i iCloud för att identifiera barnporr. Åtgärden möter både ros och kritik. 

Apple kommer att undersöka dina privata foton efter barnporr

Framöver kommer Apple att undersöka foton som sparas i lagringstjänsten iCloud. Avsikten är att upptäcka och radera barnporr. Apples planer möter dock skarp kritik.

13 augusti 2021 av Steffen Nielsen

Vill du riskera att främmande ögon tittar på de foton du laddar upp till iCloud från din iPhone?

Det är frågan som många telefonägare världen över ska ta ställning till under de kommande åren.

Apple har nämligen meddelat att man vill använda den så kallade CSAM-tekniken för att genomsöka iPhones efter så kallat "övergreppsmaterial", som exempelvis barnporr. (CSAM står för Child Sexual Abuse Material). 

I första hand ska åtgärderna lanseras i USA, men tanken är att Apple senare även ska inleda liknande åtgärder i Europa där den lokala lagstiftningen tillåter det.

> Läs även: Detta kan du se fram emot i Apples nästa uppdatering av din iPhone

CSAM-tekniken en vattendelare

Apples åtgärd möts av entusiasm hos bland annat National Center for Missing and Exploited Children i USA, som anser att åtgärden kan rädda barns liv.

Men Apples idé möter även stark kritik. 

Bland annat fruktar många att tekniken kan användas till andra ändamål, och att regeringar kommer att kunna pressa Apple att använda tekniken för att söka efter andra typer av bilder och därmed fungera som en slags sofistikerad censur.

Apple försäkrar att tekniken är designad för att uteslutande identifiera och rapportera CSAM – alltså barnpornografi.

Bilder kontrolleras av robotteknik

I kritikens kölvatten har Apple utarbetat ett dokument med frågor och svar om det nya initiativet. Du kan läsa hela dokumentet här:  Expanded Protections for Children (PDF på engelska).

I dokumentet förklarar Apple bland annat att det bara är foton som laddas upp till iCloud som de vill scanna, och alltså inte bilder som bara ligger på telefonen.

Dessutom kommer Apple endast undersöka i de fall där det redan finns misstanke om att ägaren har misstänkt material. Slutligen kommer eventuella "robotfynd" att kontrolleras av människor så att det inte blir tal om falska positiva utslag.

Samtidigt bedyrar Apple föga överraskande att företaget inte kommer att böja sig för myndigheters press att använda tekniken till andra ändamål. 

> Läs även: iPhone spårar dig överallt – se den hemliga kartan

Föräldrar kan skydda barn mot otrevliga bilder

Apple har även andra planer inom samma område. 

Företaget berättar i samma dokument om systemet "Communication safety in Messages", där föräldrar kan skydda barn mot sexuellt innehåll på iPhone.

Tanken är att barnets iPhone ska varna om de tar emot eller försöker skicka en bild av sexuell karaktär. Är barnet under 12 år får föräldrarna även ett meddelande om barnet väljer att titta på bilden.

Det är ännu oklart om och i så fall när tekniken kommer till Sverige, eftersom Apple behöver anpassa sig efter lagstiftningen i de olika länderna. Därför kommer funktionerna att lanseras i ett land i taget – i första hand i USA.

Kanske är du intresserad av...