Artikel från Linköpings universitet

Den här artikeln bygger på ett pressmeddelande. Läs om hur redaktionen jobbar.

11 mars 2008

Flexibla robotar tränar sig själva

Med den mänskliga hjärnan som förebild bygger forskare vid Linköpings universitet innovativa system för datorseende och maskininlärning.

Hur kan en dator klara enorma beräkningar på bråkdelen av en sekund, men inte skilja en hund från en katt? En teori är att den binära koden med sina ettor och nollor inte är det bästa valet för den här typen av problem.

Ett exempel på det är industrirobotar. De system som de styrs med idag fungerar väl för specifika uppgifter. Men det går åt mycket ingenjörskraft för att mata dem med data, och det arbetet måste göras om ifall roboten får nya sorters föremål att känna igen. En robot som i stället får lära sig hur saker ser ut och fungerar genom att själv utforska sin omgivning, blir betydligt mer anpassningsbar.

– Det ligger en stor samhällsnytta i att få fram mer flexibla, adaptiva system, säger Erik Jonsson, doktorand i bildbehandling som snart lägger fram sin avhandling om kanalkodning – en metod inspirerad av hur nervcellerna i hjärnan aktiveras av synintryck.

För att en dator ska förstå innehållet i en bild används ofta tydliga egenskaper som färg och riktning. I det system som utvecklats vid LiU får roboten rotera objektet, granska det ur olika vinklar och skapa en egen tolkning av ett föremål – ungefär som ett människobarn gör.

Med kanalkodning beskrivs inte vissa bestämda synvinklar av ett föremål, utan den kontinuerliga övergången från en vinkel till en annan. Varje kanal mäter förekomsten av en viss färg och en viss orientering i närheten av en given position i bilden. Alla dessa mätvärden tillsammans beskriver den vy som roboten “ser” med hjälp av sin videokamera.

Tanken är att datorseendeprogram av den här typen ska kunna installeras i vilken robot som helst, och då är den självständiga inlärningen en förutsättning.

– Om du ska ha en robot som står hemma hos dig och diskar så kan du inte förvänta dig att den från början vet hur just dina koppar ser ut, säger Erik Jonsson.

Alla metoder som presenteras i avhandlingen har testats i experiment. Arbetet har varit en del i EU-projektet COSPAL, som koordinerats av docent Michael Felsberg vid Avdelningen för bildbehandling.


Avhandlingen Channel-Coded Feature Maps for Computer Vision and Machine Learning läggs fram fredag 28 mars 2008 kl 13.15 i Glashuset, hus B, Linköpings universitet Campus Valla.

Kontaktinformation
Kontakt:
Erik Jonsson 0733-522028, erijo@isy.liu.se

Nyhetsbrev med aktuell forskning

Visste du att robotar som ser en i ögonen är lättare att snacka med? Missa ingen ny forskning, prenumerera på vårt nyhetsbrev!

Jag vill prenumerera