Artikel från forskning.se

Den här artikeln kommer från redaktionen på forskning.se. Läs om hur redaktionen jobbar.

Nick Boström är en av ett dussin personer världen över som arbetar på heltid med att försöka rädda mänskligheten – undan skenande artificiell intelligens och andra domedagsscenarier.  

Att få en intervju med Nick Boström, eller få honom att svara på frågor via mail, visar sig vara svårt. Svarar gör istället hans forskningsassistent, Kyle Scott. Det är han som skriver att det för närvarande är ett dussintal personer som arbetar med vad som kan bli en ödesfråga för mänskligheten: Hur ska vi kunna kontrollera någonting som kan bli tusen, varför inte miljoner gånger smartare än vi?

Filosofen och transhumanisten Nick Boström, Oxford university, är född i Helsingborg. På sin hemsida, beskriver han sina första 15 år som bortkastade. Det var då, vid en ålder då många inleder en livslång konsumtion av hjärncellsdestruktiv alkoholkonsumtion, som han påbörjade vad han kallar en intellektuell självutveckling. Vid universitetet i Umeå pluggade han så hårt att han blev relegerad. Rektorn ansåg det inte vara psykiskt möjligt att läsa så många heltidskurser samtidigt (fysik, filosofi, psykologi, matematisk logik).

Kyle Scott, assistenten, arbetade tidigare på  Effective Altruism movement, en välgörenhetsorganisation som beskriver altruism som svaret på en enkel fråga: hur kan vi använda våra resurser för att hjälpa andra? Kyle Scotts svar blev att arbeta för Nick Boström vid  Future of Humanity Institute. Två av institutets konferensrum är döpta efter ryska officerare, båda med en meritlista som innefattar att ha stoppat ett hotande kärnvapenkrig. En av dem, Vasili Arkhipov, var stationerad på en av ubåtarna som ingick i den så kallade Kubakrisen 1962. När hans chef förlorade radiokontakt med Moskva, och beordrade att kärnvapenmissiler skulle avfyras, lyckades Arkhipov övertala honom att låta bli.

Grubblar över domedagsscenarier

Nick Boström har fortsatt att utveckla sitt intellekt och att konsumera information i hög hastighet, till exempel genom att lyssna på ljudböcker på två eller tre gånger den normala hastigheten. Han har vid två tillfällen varit med på listan Top 100 Global Thinkers  och tagits upp på Prospect magazine’s World Thinkers list. Det han och hans medarbetare grubblar över är inte bara hur vi ska kunna kontrollera den teknologi som går under samlingsnamnet artificiell intelligens, AI, utan även andra domedagsscenarier, som ”dark fire scenario” där hela universum går under genom att all materia förvandlas till mörk materia.

Osannolikhet med gigantiska följder

Den självpåtagna uppgiften att rädda mänskligheten från något som många betraktar som osannolikt kan tyckas teoretisk, och är det också. Nick Boström motiverar arbetet med en sifferexercis i sannolikhet. Argumentet lyder ungefär så här: Även om sannolikheten för att domedagen ska komma är försvinnande liten, är följderna så gigantiskt stora att det är värt att arbeta för att förhindra den.

Det största hotet kommer alltså från artificiell intelligens. Det dussintal personer som arbetar med att förhindra att maskinerna förgör oss finns, förutom på Future of Humanity Institute, på en rad företag och organisationer:

  • DeepMind, ett företag som köptes av Google 2014 och nu ingår i Alphabet group. Företagets slogan är: Solve intelligence. Use it to make the world a better place.
  • MIRI, Machine Intelligence Research Institute. Forskarna vid MIRI har som mål att, med matematikens hjälp, förmå avancerade intelligenta system att bete sig som planerat även utan mänsklig övervakning.
  • CHAI, Center for Human-Compatible AI. Ett konsortium av forskare lett av Stuart Russell, professor i datavetenskap vid Berkeley. Han har bland annat deltagit på World Economic Forum där han varnade för att robotar i krig, till exempel drönare, skulle kunna lära sig att agera på egen hand.

Ingen lösning i sikte

Enligt Kyle Scott, Nick Boströms assistent, är gruppen liten men växande. Hur de ska lösa problemet är än så länge oklart.

– Vi kan ana att det finns ett problem, men vi har inte någon tydlig uppfattning av hur vi ska kunna lösa det.

Kyle Scott beskriver AI som ”den sista uppfinningen som människan behöver komma på.” Eftersom AI är så oändligt mycket smartare än vi blir det rationellt att låta den lösa alla problem som vi hittills har använt mänskliga hjärnor för att lösa.

– Det är inte bara ännu en cool teknologi, inte ännu en funktion på våra smarta telefoner, utan en helt ny era för livet på Jorden.

Handlar om superintelligensens värderingar

Hur det ska gå för människan i den här nya tidsåldern beror på vilka värderingar och mål superintelligensen kommer att ha. Därmed har den växande gruppen med superhjärnor åtminstone två avgränsade fält att arbeta inom.

– Vi måste se till att den här intelligensen agerar i enlighet med de avsikter som programmerarna hade. Under förutsättning att vi löser det problemet får vi privilegiet att hantera en andra utmaning: att se till att tekniken används för goda mål.

Kanske är det redan för sent. Ett av de domedagsscenarier som cirklar runt i Silicon Valley går ut på att superintelligensen redan är här och att vi alla, inklusive de tolv superhjärnorna, lever i en simulerad verklighet. Nick Boström skrev om det här redan 2003, i tidskriften Filosophical Quarterly, i en artikel med rubriken: ”Are you living in a computer simulation?

Enligt en artikel i The New Yorker[/language] 2017 har två tech-miljonärer anlitat forskare för att hitta algoritmen som kan befria oss från vår simulerade värld.

Text: Johan Frisk på uppdrag av forskning.se

Nyhetsbrev med aktuell forskning

Visste du att robotar som ser en i ögonen är lättare att snacka med? Missa ingen ny forskning, prenumerera på vårt nyhetsbrev!

Jag vill prenumerera