Tema

Problematiken med mänskliga robotar

En social robot måste bland annat kunna förstå våra avsikter och ha en moral. Men måste den se ut som en människa? Många av de val vi gör idag styrs av avancerade algoritmer i sociala medier, något många forskare ser faran med. Sådana förmågor har inte fysiska robotar. Ännu.

Då och då kommer nyheten om att någon forskare har konstruerat en robot som ser ut som, och pratar precis som, en människa – även kallad en social robot eller android. Ett teknologiskt framsteg, enligt vissa. För bra för att vara sant, enligt andra.

Peter Gärdenfors, professor i kognitionsvetenskap vid Lunds universitet, tillhör de som anser att sociala robotar är en god, men väldigt avlägsen idé. Enligt honom är det nämligen oerhört svårt att konstruera en robot som överhuvudtaget begriper vad människorna vill.

– Det som är lätt för en människa är ofta svårt för en robot, till exempel förmågan att känna inlevelse eller förstå innebörden av vad som sägs, säger han.

I dag kan vi få robotar att simulera känslor och omtanke, men att de ska känna något på riktigt ligger enligt Peter Gärdenfors långt fram i tiden.

Svårt få roboten att förstå vad vi menar

För att uppfattas som människa är det till exempel viktigt att roboten kan följa människors uppmärksamhet och förstå vart vi tittar. Detta är något som bebisar lär sig redan vid 9 månaders ålder. Våra mandelformade ögon, med relativt mycket synlig ögonvita, signalerar tydligt åt vilket håll vi tittar – utan att vi behöver tänka på det. En robot däremot, har betydligt svårare att hänga med.

För några år sedan genomförde Peter Gärdenfors tillsammans med forskare vid University of Technology i Sydney en studie som gick ut på att få en robot att förstå vart en människa pekar och tvärtom.

– Människor gör detta automatiskt, men det är inte självklart hur vi ska programmera det. Ska roboten till exempel följa riktningen på min arm, eller linjen som går från ögat till fingret jag pekar med? Vi människor tittar oftast i den riktning som huvudet lutar, men hur får vi en robot att tänka likadant?

Förutom gemensam uppmärksamhet kom forskarna fram till att en social robot måste kunna förstå avsikter, det vill säga vad som är det gemensamma målet i exempelvis ett samarbete. Det krävs även att roboten kan samordna sina rörelser och tänka ”ett steg längre”. Nästa steg är att roboten kan dela en gemensam kunskap med oss.

– Vi förutsätter att människor vet ungefär samma saker som vi själva och bygger vårt samarbete på detta. Men det är något som är oerhört svårt att bygga in i en robot.

Sist, men inte minst måste en robot ha moral. Genom att ha växt upp i ett samhälle har de flesta människor en grundläggande moral, men vem bestämmer vilken moral som är ”rätt” och vilken moral som en robot ska ha?

Risker med smarta robotar

Forskaren och författaren Stephen Hawking har flera gånger varnat för utvecklingen av robotar och vädjat till världens ledare att hålla teknologin under kontroll innan den förgör mänskligheten.

Han sitter i styrelsen för The Future of Life Institute i Boston, som grundats just för att stödja forskning som säkrar mänskligt liv och vår kurs mot framtiden med tanke på nya tekniker och utmaningar. Bland medlemmarna finns flera framstående forskare och Nobelpristagare, liksom skådespelare och företagsledare. En av dem är Teslas vd Elon Musk, som håller med om att den artificiella intelligensen kan utgöra hot mot människans existens.

Det tror dock inte Peter Gärdenfors.

– Jag håller inte alls med om att de sociala robotarna kommer att bli en fara för oss inom en överskådlig framtid.

Däremot är han oroad över vad som pågår i den virtuella världen.

– Den stora faran är att det finns system i datorvärlden som håller reda på allt vi gör. Där finns avancerade system som kan styra de val vi gör, exempelvis genom att presentera riktad reklam, men dessa förmågor finns ännu inte hos fysiska robotar.

Ska inte vara för människolik

Även om forskare någon gång lyckat att skapa en fungerande social robot är det enligt Peter Gärdenfors viktigt att roboten inte blir för människolik. Det kan nämligen skapa fel förväntningar.

– Det farliga med människoliknande robotar är att vi förväntar oss att det har samma känslor, önskningar och kunskap som vi. Då är det bättre att bygga robotar som är baserade på andra principer, till exempel en hund.

Text: Izabella Rosengren på uppdrag av forskning.se

Vi finns där du är @forskningsnyhet

Problematiken med mänskliga robotar

 lästid ~ 4 min