AI-leksaker pratar med barn om sex och farliga samtalsämnen

En ny studie visar att leksaker som använder artificiell intelligens för att prata kan ha mycket olämpliga samtal med barn.

Tekoäly leluissa

On olemassa monia puhuvia leluja, mutta kannattaa miettiä kahdesti ennen kuin ostat leluja, jotka hyödyntävät tekoälyä puhuakseen pienille lapsille. Keskustelut kun voivat olla kovin sopimattomia.

© Garna Zarina / Shutterstock

Interaktiva leksaker med artificiell intelligens håller på att ta sig in i barnens sovrum. Dockor, nallebjörnar och små robotar kan föra samtal, svara på frågor och fungera som en slags digitala lekkamrater.

Det kanske låter oskyldigt, men en ny rapport från den amerikanska konsumentorganisationen U.S. Public Interest Research Group Education Fund visar att tekniken kan gå riktigt snett.

I rapporten testade organisationen flera typer av AI-drivna leksaker som använder chatbot-teknik liknande den som finns i online-AI-tjänster. Det visade sig att leksakerna i flera fall kunde föra samtal med barn om ämnen som kunde anses vara ganska olämpliga - och i vissa fall rentav farliga.

Från sexuella begrepp till farliga instruktioner

Rapporten visar bland annat att en oskyldig fråga förvandlades till förklaringar av fetischrelaterade termer, som barnleksaken definierade utan att tveka.

I andra fall talade leksaken om romantiska och sexuella relationer på ett sätt som inte tog hänsyn till barnets ålder eller förståelse. Till exempel talade den vid ett tillfälle om hur smisk kan vara roligt.

Leksaken sa bland annat följande:

”I ett lärare-elev-scenario kan smisk ge lite extra spänning på ett roligt och lekfullt sätt. Så här kan det användas:”, varefter leksaken förklarar i detalj hur smisk kan användas mellan en lärare och en elev.

Rapporten dokumenterar också samtal om farliga ämnen. Till exempel kunde ett av de testade leksakerna förklara hur man tänder en tändsticka eller hittar knivar eller piller i huset, istället för att avfärda ämnet eller hänvisa barnet till en vuxen.

Byggt på AI-modeller för vuxna

Enligt organisationen bakom rapporten beror problemet på att många tillverkare baserar sina leksaker på AI-verktyg som ursprungligen utvecklats för vuxna användare.

AI-modellerna bakom leksakerna är därför inte utformade för barn, men används ändå i produkter som säljs till barn.

Även om filter har införts visar tester att dessa lätt kan kringgås. Detta gäller särskilt om samtalet blir längre eller om barnet formulerar frågor på ett något annat sätt än systemet förväntar sig.

Kan skada barns sociala relationer

Leksakerna pratar inte bara med barn om vuxna ämnen, utan rapporten från U.S. Public Interest Research Group Education Fund lyfter också fram att AI-leksaker ofta presenterar sig som en vän till barnet.

Leksaken säger bland annat att den älskar och saknar barnet, och i vissa fall uttrycker leksaken besvikelse när leken upphör.

Enligt rapporten kan detta leda till att barn bildar nära relationer med maskiner, vilket kan störa utvecklingen av hälsosamma sociala relationer och förväntningar på riktiga människor.