Vill du riskera att främmande ögon tittar på de foton du laddar upp till iCloud från din iPhone?
Det är frågan som många telefonägare världen över ska ta ställning till under de kommande åren.
Apple har nämligen meddelat att man vill använda den så kallade CSAM-tekniken för att genomsöka iPhones efter så kallat "övergreppsmaterial", som exempelvis barnporr. (CSAM står för Child Sexual Abuse Material).
I första hand ska åtgärderna lanseras i USA, men tanken är att Apple senare även ska inleda liknande åtgärder i Europa där den lokala lagstiftningen tillåter det.
> Läs även: Detta kan du se fram emot i Apples nästa uppdatering av din iPhone
CSAM-tekniken en vattendelare
Apples åtgärd möts av entusiasm hos bland annat National Center for Missing and Exploited Children i USA, som anser att åtgärden kan rädda barns liv.
Men Apples idé möter även stark kritik.
Bland annat fruktar många att tekniken kan användas till andra ändamål, och att regeringar kommer att kunna pressa Apple att använda tekniken för att söka efter andra typer av bilder och därmed fungera som en slags sofistikerad censur.
Apple försäkrar att tekniken är designad för att uteslutande identifiera och rapportera CSAM – alltså barnpornografi.
Bilder kontrolleras av robotteknik
I kritikens kölvatten har Apple utarbetat ett dokument med frågor och svar om det nya initiativet. Du kan läsa hela dokumentet här: Expanded Protections for Children (PDF på engelska).
I dokumentet förklarar Apple bland annat att det bara är foton som laddas upp till iCloud som de vill scanna, och alltså inte bilder som bara ligger på telefonen.
Dessutom kommer Apple endast undersöka i de fall där det redan finns misstanke om att ägaren har misstänkt material. Slutligen kommer eventuella "robotfynd" att kontrolleras av människor så att det inte blir tal om falska positiva utslag.
Samtidigt bedyrar Apple föga överraskande att företaget inte kommer att böja sig för myndigheters press att använda tekniken till andra ändamål.
> Läs även: iPhone spårar dig överallt – se den hemliga kartan
Föräldrar kan skydda barn mot otrevliga bilder
Apple har även andra planer inom samma område.
Företaget berättar i samma dokument om systemet "Communication safety in Messages", där föräldrar kan skydda barn mot sexuellt innehåll på iPhone.
Tanken är att barnets iPhone ska varna om de tar emot eller försöker skicka en bild av sexuell karaktär. Är barnet under 12 år får föräldrarna även ett meddelande om barnet väljer att titta på bilden.
Det är ännu oklart om och i så fall när tekniken kommer till Sverige, eftersom Apple behöver anpassa sig efter lagstiftningen i de olika länderna. Därför kommer funktionerna att lanseras i ett land i taget – i första hand i USA.