Tay AI

Därför löpte Microsofts chattrobot amok

För någon månad sedan lanserade Microsoft chattroboten Tay AI på de sociala nätverken Twitter, Kik och GroupMe. Efter några timmar började dock roboten ge rasistiska, nazistiska och kraftfullt diskriminerande kommentarer. Det här är vad som hände.

19 april 2016

Det var till synes en fantastisk PR-idé när Microsoft lanserade chattroboten Tay AI på internet. Tay AI är i själva verket ett program vars mål är att härma och efterlikna en 19-årig kvinna. Tanken är att programmet efter hand ska lära sig att kommunicera på olika sociala nätverk.

Tay AI löpte amok Problemen började när debattörer på bland annat Twitter lyckades manipulera de ämnen som roboten diskuterade, varpå Tay AI snart började ge hatfulla och rasistiska kommentarer. Nättrollen kunde manipulera Tay AI genom att flera gånger repetera negativa budskap, vilket ledde till att roboten själv började härma dem.

Vad vad det som gick fel? Det har Brandon Wirtz från Recognant, som är en plattform för konstgjord intelligens, några tankar om: 1: Microsoft hade inte gjort Tay självreflekterande, och därför visste inte programmet att det skulle ignorera till exempel nynazister på chatforum och inte härma dem.

2: Det fanns inte tillräckligt säkerhetsskydd för att kunna styra Tay åt rätt håll. I stället lät Microsoft internet lära upp roboten.

Microsofts lösning på problemet var radikal: De stängde av Tay AI. Den kommer tillbaka på internet igen, men först när programmerarna har gått igenom programmets alla instruktioner.

Källa: readwrite.com

Kanske är du intresserad av...