Två personer sitter som svarta siluetter vid ett fönster och talar med varandra.
Bild: Etienne Boulanger, Unsplash.
Artikel från Stockholms universitet

Den här artikeln bygger på ett pressmeddelande. Läs om hur redaktionen jobbar.

Ett AI-system som kan läsa av och sammanfatta känslor och utvecklas just nu vid Stockholms universitet. Verktyget är tänkt att användas av terapeuter, särskilt vid internetbaserad terapi.

En del stor del av människors känslor uttrycks på ett icke-verbalt sätt.

– Ansiktet förmedlar ju väldigt mycket information, vi har minst 40 muskler i ansiktet som gör att vi kan kommunicera med varandra på ett väldigt rikt sätt och som ger oss möjligheter att lösa saker effektivt i grupp, säger Lennart Högman, forskare vid Psykologiska institutionen vid Stockholms universitet.

Lennart Högman och kollegor forskar i ett projekt där ett nytt AI-verktyg utvecklas. Tanken är att verktyget främst ska användas av terapeuter, kanske framför allt i sådan terapi där mötena sker digitalt. I den typen av möten kan sådant som kroppsspråk vara svårare än annars för terapeuten att läsa av.

AI:n märker om båda känner samma

Forskarna i projektet studerar verbal och icke-verbal kommunikation som tonen på rösten, ansiktsmimik och kroppsrörelser – till exempel om en person rör sig närmare eller bortåt.

AI-verktyget gör det möjligt, enligt forskarna, att följa en klients emotionella utveckling. Det ska även gå att se när terapeuten och klienten samtidigt uppvisar en viss sorts känslor – och när det uppstår skillnader i synkningen.

Just samstämmighet, tror forskarna, är viktigt för hur effektiv en behandling blir. Det är relativt vanligt att klienter avbryter sin terapi i förtid. Det kan ha att göra med att en del människor upplever att de inte får den kontakt med terapeuten som de hade förväntat sig.

Kan ge bättre terapi

AI-verktyget kan också ge användaren sammanfattningar av samtal. Framöver ska man även kunna ställa specifika frågor till verktyget, som i Chat GPT.

– Till exempel ”Kan du sammanfatta allt som den här personen har sagt kring sin mor, sin far, en plats eller vad som helst”, samtidigt som man kan få fram vilka positiva och negativa känslor som visats i olika sammanhang. Systemet blir som en assistent som minns vad som försiggått under hela terapin, säger Lennart Högman.

Lätt att överskatta egna förmågan

På så sätt, menar han, kan verktyget förbättra terapi-behandlingar.

– Har man jobbat 30 år som terapeut har vi all respekt för att man kanske inte vill använda det. Men i en framtid kan det vara till stor nytta, man tränar upp sin förmåga att läsa av. Det är lätt att överskatta den egna kunskapen om hur andra människor tänker, ofta utgår vi från vårt egna sätt att fungera och applicerar det på andra.

Verktyget ska också kunna visa när en klient förmedlar motstridiga signaler, när det en person säger inte stämmer överens med kroppsspråket. Men tekniken ska inte få användas i förhörssituationer av något slag, säger Lennart Högman.

Ett annat möjligt användningsområde är rekrytering. Det är dock inte problemfritt, menar Lennart Högman. Den oro de flesta känner inför en anställningsintervju skulle kunna förstärkas om man dessutom blir bedömd av en AI.

Läser av omedvetna processer

En fördel, menar forskarna, är att AI-verktyget inte kommer styras av minnesbilder. Allt finns istället samlat svart på vitt, dels transkriberat och dels i en sammanfattning. I den kan man se var i samtalet personerna har agerat emotionellt. Dock är det terapeuten som står för tolkningen, säger Lennart Högman.

– Mänskliga reaktioner är komplicerade, det finns oerhört mycket information i ett möte mellan två människor. Man skulle kunna säga att vi genom projektet försöker öppna dörrarna till de omedvetna processerna i mellanmänskliga möten.

Läs om forskningsprojektet här.

Läs också: ASMR – sinnliga ljud som får hjärnan att jubla
Människans luktsinne är skarpt – men kan vi spåra vilda djur?
Tuff barndom bakom många sjukdomar 

Nyhetsbrev med aktuell forskning

Visste du att robotar som ser en i ögonen är lättare att snacka med? Missa ingen ny forskning, prenumerera på vårt nyhetsbrev!

Jag vill prenumerera