Konsten att navigera rätt som robot
En robot på uppdrag utomhus måste inte bara se omgivningen, den måste också kunna tolka vad det är den ser. Forskaren Martin Persson, som nyligen disputerade i industriell mätteknik på Örebro universitet, har utvecklat en metod som gör det möjligt för en robot att navigera rätt i nya miljöer och att berätta om vad den ser.
– Min forskning handlar om att bygga semantiska, det vill säga betydelsebärande, kartor med hjälp av datorseende i utomhusmiljöer. Och det som exempelvis en mobil robot ser med hjälp av sina sensorer ska den kunna beskriva med begrepp som människor använder. Det kommer att underlätta kommunikationen mellan robotar och operatörer, säger Martin Persson.
Enkelt uttryckt handlar hans forskning om att lära robotar att omedelbart se skillnad mellan till exempel ett hus, en lastbil eller ett stort stenblock. Det gäller alltså att definiera de egenskaper som är avgörande för att tolkningen ska bli rätt. Samtidigt får definitionen inte vara för snäv, eftersom det är meningen att roboten ska kunna känna igen olika sorters byggnader, inte bara ett specifikt hus.
Gemensamt språk för maskin och människa
– Metoden är ett exempel på ett lärande system. Bilder som föreställer den typ av objekt som roboten skall känna igen används för att träna systemet. Systemet mäter en mängd egenskaper hos objekten, till exempel horisontala och vertikala linjer eller oregelbundenhet. Sedan testas egenskaperna på andra objekt, och metoden plockar ut de som fungerar bäst. På så sätt lär sig systemet koppla semantisk, alltså betydelsebärande, information till olika kombinationer av egenskaper i bilderna och kan då tolka vad den ser.
När roboten lär sig sätta ord på olika föremål skapas ett gemensamt språk för maskin och människa, som gör det möjligt för en robot att berätta om vad den ser och att ta emot instruktioner från olika användare.
Martin Persson har dessutom tagit sin forskning ett steg vidare för att en robot också ska kunna veta vad som finns utanför sitt närområde, med hjälp av flygfotografier. Genom att använda det den själv kan se, så kan ytterligare information fås från flygbilderna. Detta kan hjälpa roboten att navigera på ett smart sätt för att ta sig till sitt mål.
Räddningsarbete efter jordbävningar
– Det kan ge ovärderlig information när det saknas uppdaterade kartor eller då man behöver information som normalt inte finns på kartor. Ett exempel är vid räddningsarbete efter jordbävningar då en nytagen flygbild kan visa vilka vägar som är farbara. Ett annat exempel är kartering av patrulleringsområden för fredsbevarande trupper, där det ofta saknas tillförlitliga kartor, säger Martin Persson.
Han tror också att metoden i framtiden skulle kunna användas som hjälpmedel av blinda människor för att enkelt ta sig till olika platser och få information om omgivningen.
Forskningen har bedrivits som ett industridoktorandprojekt mellan Örebro universitet och Saab, där Martin Persson arbetar som systemingenjör inom området simulering och obemannade farkoster.
Kontaktinformation
För mer informaton, kontakta Martin Persson, 019-766 46 83 eller 070-952 13 34.