Människa eller en ai-röst? Skillnaden kan vara hårfin.
Artikel från Göteborgs universitet

Den här artikeln bygger på ett pressmeddelande. Läs om hur redaktionen jobbar.

Är det en människa eller en robot som svarar i telefonen? Det är inte helt lätt att avgöra när AI-system får allt mer mänskliga drag. Men utvecklingen kan påverka förtroendet för en samtalspartner, visar forskning.

Forskare vid Göteborgs universitet har undersökt hur människor tolkar och förhåller sig till beteenden där en av parterna möjligen kan vara en röstbaserad interaktiv tjänst.

De har studerat olika olika typer av inspelade samtal, där ett system som bygger på artificiell intelligens, AI, ibland utgör den ena parten.

I ett exempel ringer en förmodad bedragare upp vad han tror är en äldre man, men blir i själva verket vidarekopplad och får prata med ett datorsystem som kommunicerar genom förinspelade loopar. Personen försöker länge och väl genomföra bedrägeriförsöket och lyssnar tålmodigt på ”mannens” något virriga och repetitiva berättelser.

– Vi har tittat på hur lång tid det tar innan de förstår att det är ett tekniskt system och varför det är så svårt. Ibland pratar de i en timme med det här systemet, säger Oskar Lindwall, professor i kommunikation vid Göteborgs universitet.

Misstänksamhet skadar relationer

I studien upptäckte forskarna att vissa beteenden i samtal mellan två människor tolkades som tecken på att en av dem i själva verket var en robot. Pauser i samtalet tolkades som att AI-roboten tog tid på sig att bearbeta det som sagts. I de fall personen som ringde upp var alltför rakt på sak uppfattades beteendet som socialt inkompetent, vilket ansågs avslöja att det rörde sig om artificiell intelligens.

– En följd av att inte kunna vara helt säker på avsikten och identiteten hos den man interagerar med, kan vara att man blir överdrivet misstänksam även när det inte finns fog för det, säger Jonas Ivarsson, professor i informatik.

Han menar att de två tolkningsmöjligheter som uppstår när en misstanke väcks gör att vår interaktion och kommunikation ”saboteras” och blir mindre produktiv.

Chatrobot på dator
System som bygger på artificiell intelligens får allt mer mänskliga drag.

Problematiskt när AI får en egen röst

Enligt forskarna finns ett utbrett designperspektiv som driver ai-utvecklingen mot allt mer människoliknande drag.

− Om jag vill ha en av mina artiklar upplästa för mig, då kan det få vara en väldigt personlig röst. Gärna författarens röst. Det skulle jag inte ha något emot. Men det kan också finnas något problematiskt med den strävan, speciellt i situationer där det inte är tydligt vem man kommunicerar med, säger Oskar Lindwall.

I fallet med den misstänkte bedragaren som ringer upp ”den äldre mannen” tog det lång tid innan bluffen avslöjas. Det beror enligt forskarna på att mannen hade en trovärdig mänsklig röst och att hans något förvirrade beteende kan antas ha med hans ålder att göra.

− När en ai har en röst, börjar vi att tillskriva den egenskaper. Vi drar slutsatser om kön, ålder, socioekonomisk bakgrund och liknande. Det blir då svårare för oss att se tecknen som avslöjar att det är en dator vi interagerar med, säger Jonas Ivarsson.

Tydligare skillnader behövs

Forskarna ställer sig frågande till att ett AI-system ska ha den typen av röster som är så mänskligt färgade.

− Man bygger en idé om en person bara genom rösten. Den har ett annat fingeravtryck än vad text har och är mycket mer intim. Det går att göra AI som har en väl fungerade och vältalig röst som ändå är uppenbart syntetisk, och det skulle öka transparensen.

Så gjordes studien

Forskarna har analyserat data som gjorts tillgängliga via Youtube. Tre typer av samtal, publikens reaktioner och kommentarer har studerats.

I den första typen ringer en robot upp en person och ska boka en frisör. Den uppringda personen är omedveten om att det är en robot i andra änden. I den andra typen ringer en människa upp en annan människa, i samma ärende. I den tredje samtalstypen blir telefonförsäljare vidarebefordrade till ett datorsystem med förinspelat tal.

Studie:

Suspicious Minds: the Problem of Trust and Conversational Agents, Computer Supported Cooperative Work.

Kontakt:

Jonas Ivarsson, professor i informatik, Göteborgs universitet,  jonas.ivarsson@gu.se

Oskar Lindwall, professor i kommunikation, Göteborgs universitet, oskar.lindwall@ait.gu.se

Senaste nytt

Nyhetsbrev med aktuell forskning

Visste du att robotar som ser en i ögonen är lättare att snacka med? Missa ingen ny forskning, prenumerera på vårt nyhetsbrev!

Jag vill prenumerera