Artificiell intelligens

Vad är artificiell intelligens?

AI är ickebiologisk intelligens. Eller mer specifikt: det är teknik som gör att maskiner kan uppnå komplexa mål. Man skiljer vanligtvis mellan två typer av AI. Det handlar å ena sidan om svag/snäv AI, som utformats och tränats för en särskild uppgift – till exempel spamfilter, självkörande bilar eller Facebooks nyhetsflöde. Den andra typen kallas generell AI (Artificial General Intelligence, AGI), som kan hitta en lösning på en uppgift som den inte handskats med tidigare, med en förmåga på mänsklig eller övermänsklig nivå.

Dagens strävan efter AGI bygger på att automatisera prognosanalyser – en process som brukar kallas för maskininlärning. En viktig del av maskininlärning är användningen av neurala nätverk – system där ett stort antal processorer arbetar parallellt, ordnade i skikt. Det första skiktet tar emot obearbetade data. Varje därpå följande skikt tar emot data från föregående skikt. Neurala nätverk anpassar och förändrar sig själva helt självständigt, i enlighet med inledande träning och inmatning av data, på sätt som deras utvecklare vanligtvis inte har insyn i.

Om forskare en dag lyckas bygga ett AGI på mänsklig nivå kommer det antagligen att innehålla expertsystem, naturlig språkbehandling och maskinseende. Kanske kan det också härma kognitiva funktioner som vi idag associerar till det mänskliga intellektet, till exempel inlärning, resonerande, problemlösning och självkorrigering. Men de underliggande mekanismerna kan skilja sig avsevärt från människohjärnan – ungefär som att dagens flygplan inte flyger på samma sätt som fåglar.

Vad är det som står på spel?

Inom vissa snäva områden har AI-system visat sig nå övermänskliga nivåer relativt snabbt, till exempel när det handlar om att identifiera var ett foto tagits, eller att spela komplexa spel, som Jeopardy eller Go. De närmaste årtiondena finns en hög sannolikhet för att AI-system kan komma att överträffa människor på bredare områden. För att förstå faran med föremål som är mer intelligenta än vi själva kan man betänka den makt vi människor tillskansat oss genom att vara jordens smartaste varelser. Även om AI-systems värderingar kan bringas i överensstämmelse med deras skapares, så är det troligt att systemen kommer att ha djupgående inverkan på det samhällsekonomiska bygget och den geopolitiska balansen. Men om kraftfulla AI-systems mål inte står i överensstämmelse med våra egna, eller om deras arkitektur är det minsta bristfällig, så kan det hända att de använder sin extrema intelligens i syften som visar sig bli katastrofala för mänskligheten. Det här är speciellt oroväckande eftersom de flesta organisationer som utvecklar AI-system idag fokuserar i mycket högre grad på funktionalitet än på etik.

"AI är ickebiologisk intelligens, teknik som gör det möjligt för maskiner att nå komplexa mål."

Möjliga scenarier

De flesta experter är överens om att ett superintelligent AI-system antagligen kommer att utformas för att vara välvilligt eller neutralt, och troligen inte kommer att bli illvilligt av sig självt. Man bekymrar sig dock främst för följande två scenarier:

  • AI-systemet programmeras att göra något förödande: Autonoma vapen är AI-system som är programmerade att döda. I händerna på fel person skulle de vapnen lätt orsaka enorma förluster av liv. Dessutom skulle en AI-kapprustning oavsiktligt kunna leda till ett AI-krig som även det kräver enorma antal dödsoffer. För att undvika att fienden oskadliggör vapnen skulle man utforma dem så att de är extremt svåra att ”stänga av”. Därför är det rimligt att anta att människorna skulle tappa kontrollen över en sådan situation. Den risken finns även med snävare AI, men växer i takt med att AI blir mer intelligent och självständig.
  • AI programmeras att göra något nyttigt, men utvecklar en destruktiv metod att uppnå sitt mål: Detta kan hända närhelst vi inte lyckas helt med att få AI-systemets mål att överensstämma med våra egna, något som är mycket svårt. Man kan be en lydig intelligent bil att köra till flygplatsen så fort som möjligt, och det kan sluta med att man har kräkts och är jagad av polishelikoptrar – bilen har inte gjort det man ville, utan bokstavligen det man bad om. Om ett superintelligent system får i uppgift att genomföra ett ambitiöst samhällsprojekt kan en bieffekt bli att det orsakar kaos, och ser mänskliga försök att sätta stopp för det som ett hot som måste åtgärdas.

De här exemplen visar att oron för avancerad AI inte handlar om illvilja, utan om kompetens. Ett superintelligent AI-system kommer att vara extremt bra på att uppnå sina mål, men om de målen inte stämmer överens med våra får vi problem. Du är säkert ingen ond myrhatare som trampar på myror av ren illvilja, men om du är ansvarig för ett miljövänligt vattenkraftsprojekt och det finns en myrstack i området som ska översvämmas, så får myrorna stryka på foten. Ett centralt mål för AI-säkerhetsforskning är att mänskligheten aldrig ska hamna i myrornas situation.

Hur mycket vet vi?

Det är nu allmänt vedertaget att vi förr eller senare kommer att kunna skapa AI-system som kan utföra de flesta uppgifter lika bra som en människa. Enligt de experter som tillfrågats är det ungefär 50 procents chans för att sådan AI finns år 2050.  Man antar det är minst 5 procents chans att det finns superintelligent AI två år efter man nått AI på mänsklig nivå och 50 procents chans att detta finns efter 30 år. Den långsiktiga samhällseffekten av AI på eller över mänsklig nivå är dock oklar, och experternas uppskattningar präglas av extrem osäkerhet.

Förmågan att bringa AI i överensstämmelse med mänskliga värderingar anses allmänt vara av stor betydelse när det gäller att bedöma riskfaktorn. Men bortsett från den öppna frågan om vilka värderingar man ska välja, så finns det viktiga olösta tekniska problem när det gäller hur man ska få AI att förstå mänskliga mål, hur man ska få AI att anamma målen, och hur man säkerställer att den håller sig till målen om den genomgår rekursiv självförbättring.

Vilka är de viktigaste faktorerna som påverkar risknivåerna?

  • Risken med AI är idag fortfarande en framväxande risk, men den skulle snabbt kunna accelerera om det skedde plötsliga tekniska genombrott utan att samhällets och politikens institutioner fick tid att justera sina riskhanteringsmekanismer. Särskilt om AI-utvecklingen blir automatiserad kan nya förmågor utvecklas extremt snabbt.
  • Riskerna kan förvärras av geopolitiska slitningar som leder till AI-kapprustning, AI-utveckling som resulterar i avkall på säkerheten, eller otillräcklig styrning när det gäller kraftfull AI.
  • Vilken nivå det blir på riskerna med AI kommer delvis att bero på hur väl det går att få avancerad AI:s mål att överensstämma med mänskliga värderingar. Detta kommer att kräva att man specificerar mer exakt vad mänskliga värderingar är, och/eller att man uppfinner nya metoder för AI att lära sig värderingarna.

Granskad av

Anthony Aguirre

Medgrundare av Future of Life Institute

Max Tegmark

Ordförande och medgrundare, Future of Life Institute

Ariel Conn

Medie- och kommunikationschef, Future of Life Institute

Richard Mallah

AI-projektdirektör, Future of Life Institute

Victoria Krakovna

Medgrundare, Future of Life Institute

Artificiell intelligens: Riskhantering

Avancerad artificiell intelligens sågs tills alldeles nyligen som science fiction. Forskare inom industri och akademi samt regeringar fokuserade mer på att den skulle fungera över huvud taget. Det...

Läs mer