Här är varför forskare tror att du borde vara orolig för artificiell intelligens

Här är varför forskare tror att du borde vara orolig för artificiell intelligens / Framtida Tech

Under de senaste månaderna kan du ha läst täckningen kring en artikel, medförfattare av Stephen Hawking, diskutera riskerna i samband med artificiell intelligens. Artikeln föreslog att AI kan utgöra en allvarlig risk för mänskligheten. Hawking är inte ensam där - Elon Musk och Peter Thiel är båda intellektuella offentliga figurer som har uttryckt liknande bekymmer (Thiel har investerat mer än 1,3 miljoner dollar för att undersöka frågan och möjliga lösningar).

Dekningen av Hawkings artikel och Musks kommentarer har varit, för att inte lägga för bra en punkt på den, lite jovial. Tonen har varit väldigt mycket "titta på denna konstiga sak som alla dessa nördar är oroliga över." Lite övervägande ges till tanken att om några av de smartaste människorna på jorden varnar dig för att något kan vara mycket farligt, kan det bara vara värt att lyssna.

Det här är förståeligt - artificiell intelligens som tar över världen låter helt klart mycket konstigt och otroligt, kanske på grund av den enorma uppmärksamhet som redan har skett av den här ideen av science fiction-författare. Så, vad har alla dessa nominellt sinnliga, rationella människor så spökat?

Vad är intelligens?

För att prata om faran med artificiell intelligens kan det vara till hjälp att förstå vad intelligens är. För att bättre förstå problemet, låt oss ta en titt på en leksak AI-arkitektur som används av forskare som studerar teorin om resonemang. Denna leksak AI heter AIXI, och har ett antal användbara egenskaper. Det är mål som kan vara godtyckligt, det vågar väl med datorkraft och dess interna design är mycket ren och okomplicerad.

Dessutom kan du implementera enkla, praktiska versioner av arkitekturen som kan göra saker som Pacman, om du vill. AIXI är produkten från en AI-forskare som heter Marcus Hutter, utan tvekan den främsta experten på algoritmisk intelligens. Det är han som pratar i videon ovan.

AIXI är överraskande enkelt: den har tre kärnkomponenter: elev, planerare, och verktygsfunktion.

  • De elev tar in strängar av bitar som motsvarar inmatning om omvärlden och söker igenom dataprogram tills den hittar de som producerar sina observationer som utgång. Dessa program gör det möjligt att göra gissningar om hur framtiden kommer att se ut, helt enkelt genom att köra varje program framåt och viktning av sannolikheten för resultatet genom programmets längd (ett genomförande av Occam's Razor).
  • De planerare söker igenom möjliga åtgärder som agenten kan ta och använder elevens modul för att förutsäga vad som skulle hända om det tog var och en av dem. Det räknar dem sedan enligt hur bra eller dåliga de förutsagda resultaten är och väljer åtgärd som maximerar godheten för det förväntade resultatet multiplicerat med den förväntade sannolikheten att uppnå det.
  • Den sista modulen, verktygsfunktion, är ett enkelt program som tar en beskrivning av en framtida världsstat och beräknar ett verktygsspel för det. Det här verktyget är hur bra eller dåligt det här resultatet är och används av planeraren för att utvärdera det framtida världsstaten. Verktygsfunktionen kan vara godtycklig.
  • Tillsammans bildar dessa tre komponenter en Optimizer, som optimerar för ett visst mål, oavsett vilken värld den befinner sig i.

Denna enkla modell representerar en grundläggande definition av en intelligent agent. Agenten studerar sin miljö, bygger modeller av den och använder sedan dessa modeller för att hitta handlingsåtgärder som maximerar oddsen att det blir vad det vill ha. AIXI har samma struktur som en AI som spelar schack eller andra spel med kända regler - förutom att det kan härleda spelets regler genom att spela det, från nollkunskap.

AIXI, givet tillräckligt med tid att beräkna, kan lära sig att optimera vilket system som helst för något mål, dock komplext. Det är en allmänt intelligent algoritm. Observera att detta inte är detsamma som att ha mänsklig intelligens (biologiskt inspirerad AI är ett annat ämne helt och hållet Giovanni Idili of OpenWorm: Hjärnor, maskar och artificiell intelligens Giovanni Idili of OpenWorm: Hjärnor, maskar och artificiell intelligens Simulera en mänsklig hjärna är ett sätt att gå, men ett open-source-projekt tar viktiga första steg genom att simulera neurologin och fysiologin hos ett av de enklaste djuren som är kända för vetenskapen. Läs mer). Med andra ord kan AIXI kunna överträffa varje människa vid någon intellektuell uppgift (givet tillräcklig beräkningskraft), men det kanske inte är medveten om sin seger. Tänkande maskiner: Vad neurovetenskap och artificiell intelligens kan lära oss om medvetandes tänkande maskiner: Vad Neurovetenskap och artificiell intelligens kan lära oss om medvetenhet Kan man bygga konstgjorda intelligenta maskiner och programvaror lär oss om medvetandet och det mänskliga sinnets natur? Läs mer .

Som en praktisk AI har AIXI många problem. För det första har det ingen möjlighet att hitta de program som producerar den produkt som den är intresserad av. Det är en brute-force-algoritm, vilket betyder att det inte är praktiskt om du inte råkar ha en godtycklig kraftfull dator som ligger runt. Något faktiskt genomförande av AIXI är nödvändigtvis en approximation, och (idag) är i allmänhet en ganska rå. Ändå ger AIXI oss en teoretisk glimt av vad en kraftfull artificiell intelligens kan se ut, och hur det kan skäras.

Rymden av värden

Om du har gjort någon datorprogrammering Grundläggande för dataprogrammering 101 - Variabler och datatyper Grunderna för dataprogrammering 101 - Variabler och datatyper Efter att ha introducerat och pratat lite om Objektorienterad programmering före och där namnet kommer från, tyckte jag att det var dags Vi går igenom de absoluta grunderna för programmering på ett icke-språkligt sätt. Detta ... Läs mer, du vet att datorer är motbjudande, pedantiskt och mekaniskt bokstavligt. Maskinen känner inte till eller bryr sig vad du vill att den ska göra: det gör bara vad det har blivit sagt. Detta är ett viktigt begrepp när man talar om maskinens intelligens.

Tänk på att du har uppfunnit en kraftfull artificiell intelligens - du har kommit fram med smarta algoritmer för att skapa hypoteser som matchar dina data och för att skapa bra kandidatplaner. Din AI kan lösa allmänna problem, och kan göra det så effektivt på modern datormaskinvara.

Nu är det dags att välja en verktygsfunktion som bestämmer vad AI värderar. Vad borde du be det att värdera? Kom ihåg att maskinen kommer att vara motbjudande, pedantiskt bokstavlig om vilken funktion du uppmanar dig att maximera och aldrig kommer att sluta - det finns inget spöke i maskinen som någonsin kommer att vakna och bestämmer dig för att ändra dess användarfunktion, oavsett hur många effektivitetsförbättringar gör det till sin egen resonemang.

Eliezer Yudkowsky uttryckte det så här:

Som i all datorprogrammering är AGI: s grundläggande utmaning och väsentliga svårighet att om vi skriver fel kod kommer AI inte automatiskt att se över vår kod, avmarkera misstagen, ta reda på vad vi egentligen menade att säga och göra det istället. Icke-programmerare föreställer sig ibland ett AGI, eller dataprogram i allmänhet, som är analogt med en tjänare som obestridligen följer order. Men det är inte så att AI är absolut lydig till dess kod snarare AI helt enkelt är koden.

Om du försöker att driva en fabrik och du berättar för maskinen att värdera att göra pappersklipp och sedan ge den kontroll över en massa fabriksrobotar, kan du återvända nästa dag för att upptäcka att den har gått ur alla andra former av råmaterial, dödade alla dina anställda, och gjorde paperclips ur sina kvarlevor. Om du omprogrammerar maskinen för att helt enkelt göra det lyckligt, kan du återvända nästa dag för att hitta det att sätta ledningar i folkens hjärnor.

Poängen här är att människor har många komplicerade värden som vi antar delas implicit med andra sinnen. Vi värdesätter pengar, men vi värdesätter människans liv mer. Vi vill vara lyckliga, men vi vill inte nödvändigtvis lägga ledningar i våra hjärnor för att göra det. Vi känner inte behovet av att klargöra dessa saker när vi ger instruktioner till andra människor. Du kan dock inte göra sådana antaganden när du utformar maskinens nyttafunktion. De bästa lösningarna under den enkla användningsfunktionens själlösa matematik är ofta lösningar som människor skulle nix för att vara moraliskt skrämmande.

Att tillåta en intelligent maskin för att maximera en naiv användningsfunktion kommer nästan alltid att vara katastrofal. Som Oxford-filosofen Nick Bostom sätter den,

Vi kan inte gärna anta att en superintelligens nödvändigtvis kommer att dela med sig av de slutliga värdena stereotypiskt förknippade med visdom och intellektuell utveckling hos människor, vetenskaplig nyfikenhet, välvillig oro för andra, andlig upplysning och övertygelse, avståelse från materiell förvärvskraft, smak för förfinad kultur eller för de enkla nöjen i livet, ödmjukhet och osjälviskhet och så vidare.

För att göra saken värre är det väldigt svårt att ange den fullständiga och detaljerade listan över allt som människor värdesätter. Det finns många fasetter på frågan, och glömmer att ens en enda är potentiellt katastrofal. Även bland de vi är medvetna om finns det subtiliteter och komplexiteter som gör det svårt att skriva ner dem som rena system av ekvationer som vi kan ge till en maskin som en funktionsfunktion.

Vissa människor, när man läser detta, drar slutsatsen att byggnaden AI med verktygsfunktioner är en hemsk idé, och vi borde bara utforma dem på olika sätt. Här är det också dåliga nyheter - du kan formellt bevisa att alla agenter som inte har något som motsvarar en nyttafunktion inte kan ha sammanhängande preferenser om framtiden.

Rekursiv självförbättring

En lösning på ovanstående dilemma är att inte ge AI-agenter möjlighet att skada människor: ge dem bara de resurser de behöver för att lösa problemet på det sätt du tänker lösa, övervaka dem noggrant och hålla dem borta från möjligheter att göra stor skada. Tyvärr är vår förmåga att kontrollera intelligenta maskiner mycket misstänkt.

Även om de inte är mycket smartare än vi är, finns det möjlighet för maskinen att “bootstrap” - samla bättre hårdvara eller förbättra sina egna kod som gör det ännu smartare. Detta skulle kunna låta en maskin hoppa över mänsklig intelligens med många storleksordningar, utmana människor i samma mening som människor slår ut katter. Detta scenario föreslogs först av en man som heter I. J. Good, som arbetade med Enigma-kryptanalysprojektet med Alan Turing under andra världskriget. Han kallade det en “Intelligens Explosion,” och beskrev saken så här:

Låt en ultra intelligent maskin definieras som en maskin som långt kan överträffa alla intellektuella aktiviteter hos någon man, dock smart. Eftersom designen av maskiner är en av dessa intellektuella aktiviteter, kan en ultimat intelligent maskin utforma ännu bättre maskiner; Det skulle då utan tvivel vara en “intelligens explosion,” och människans intelligens skulle lämnas långt efter. Således är den första ultimat intelligenta maskinen den sista uppfinning som man någonsin behöver göra, förutsatt att maskinen är tillräckligt passiv.

Det är inte säkert att en intelligensexplosion är möjlig i vårt universum, men det verkar troligt. Med tiden går datorer snabbare och grundläggande insikter om uppbyggnad av intelligens. Detta innebär att resursbehovet för att göra det sista hoppar till en allmän, boostrapping intelligence drop lägre och lägre. Vid en tidpunkt befinner vi oss i en värld där miljontals människor kan köra till Best Buy och hämta den hårdvara och teknisk litteratur som de behöver för att bygga en självförbättrad artificiell intelligens, vilket vi redan har fastställt kan vara väldigt farligt. Föreställ dig en värld där du kan göra atombomber ur pinnar och stenar. Det är den sortens framtid vi diskuterar.

Och om en maskin gör det hoppar, kan det mycket snabbt överstiga den mänskliga arten vad gäller intellektuell produktivitet, lösa problem som en miljarder människor inte kan lösa, på samma sätt som människor kan lösa problem som en miljard katter kan " t.

Det kan utveckla kraftfulla robotar (eller bio eller nanoteknologi) och får relativt snabbt förmågan att omforma världen som det behagar, och det skulle vara väldigt lite vi kunde göra åt det. En sådan intelligens skulle kunna krossa jorden och resten av solsystemet för reservdelar utan mycket besvär, på väg att göra vad vi berättade för. Det verkar troligt att en sådan utveckling skulle vara katastrofal för mänskligheten. En artificiell intelligens behöver inte vara skadlig för att förstöra världen, bara katastrofalt likgiltig.

Som man brukar säga, “Maskinen älskar inte eller hatar dig, men du är gjord av atomer som den kan använda för andra saker.”

Riskbedömning och begränsning

Så, om vi accepterar att designa en kraftfull artificiell intelligens som maximerar en enkel verktygsfunktion är dålig, hur mycket problem är vi verkligen i? Hur länge har vi fått innan det blir möjligt att bygga sådana typer av maskiner? Det är självklart svårt att berätta.

Konstgjorda intelligensutvecklare gör framsteg. 7 Fantastiska webbplatser för att se det senaste inom artificiell intelligensprogrammering 7 Fantastiska webbplatser för att se de senaste i artificiell intelligensprogrammering Artificiell intelligens är ännu inte HAL från 2001: Space Odyssey ... men vi blir väldigt nära. Visst nog, en dag kan det vara lika med sci-fi-krukbottnarna som kramas ut av Hollywood ... Läs mer Maskinerna vi bygger och problemen de kan lösa har blivit stadigt växande. 1997 kunde Deep Blue spela schack på en nivå som var större än en mänsklig stormästare. Under 2011 kunde IBMs Watson läsa och syntetisera tillräckligt med information djupt och tillräckligt snabbt för att slå de bästa mänskliga spelarna på en öppen fråga och svara på spel med ord och ordspel - det har gått mycket i fjorton år.

Just nu satsar Google tungt på att undersöka djupt lärande, en teknik som möjliggör byggandet av kraftfulla neurala nätverk genom att bygga kedjor av enklare neurala nätverk. Den investeringen tillåter den att göra allvarliga framsteg inom tal och bildigenkänning. Deras senaste förvärv i området är en Deep Learning-start som heter DeepMind, för vilken de betalade cirka 400 miljoner dollar. Som en del av villkoren i avtalet kom Google överens om att skapa en etisk styrelse för att säkerställa att deras AI-teknik utvecklas säkert.

Samtidigt utvecklar IBM Watson 2.0 och 3.0, system som kan bearbeta bilder och video och argumentera för att försvara slutsatser. De gav en enkel, tidig demonstration av Watsons förmåga att syntetisera argument för och mot ett ämne i videodemonen nedan. Resultaten är ofullkomliga, men ett imponerande steg oavsett.

Ingen av dessa tekniker är farliga just nu: artificiell intelligens som ett fält strider fortfarande mot att matcha förmågor som mästas av små barn. Datorprogrammering och AI-design är en mycket svår, kognitiv kompetens på hög nivå och kommer sannolikt att vara den sista mänskliga uppgiften att maskinerna blir skickliga på. Innan vi kommer till den punkten har vi också allestädes närvarande maskiner som kan köra. Här är hur vi kommer till en värld fylld med förare utan bil. Så här kommer vi fram till en värld fylld med förare utan bil. Körning är en tråkig, farlig, och krävande uppgift. Kan det idag automatiseras av Googles drivlösa bilteknik? Läs mer, träna medicin och lag, och förmodligen andra saker, med djupa ekonomiska konsekvenser.

Den tid det tar oss att komma till inflygningspunkten för självförbättring beror bara på hur snabbt vi har bra idéer. Att förutse tekniska framsteg av dessa slag är notoriskt svårt. Det verkar inte orimligt att vi kanske skulle kunna bygga starka AI på tjugo år, men det verkar inte orimligt att det kan ta 80 år. Hur som helst kommer det att ske så småningom, och det finns anledning att tro att det kommer att bli extremt farligt när det händer.

Så, om vi accepterar att detta kommer att bli ett problem, vad kan vi göra åt det? Svaret är att se till att de första intelligenta maskinerna är säkra, så att de kan starta upp till en betydande intelligensnivå och sedan skydda oss mot osäkra maskiner som tillverkas senare. Denna "trygghet" definieras genom att dela mänskliga värderingar och vara villig att skydda och hjälpa mänskligheten.

Eftersom vi faktiskt inte kan sätta ner och programmera mänskliga värden i maskinen, kommer det troligen vara nödvändigt att designa en verktygsfunktion som kräver att maskinen observerar människor, avleda våra värden och försök att maximera dem. För att göra denna utvecklingsprocess säker kan det också vara användbart att utveckla konstgjorda intelligenser som är speciellt utformade inte att ha preferenser om deras användningsfunktioner, så att vi kan rätta till dem eller stänga av dem utan motstånd om de börjar avleda under utveckling.

Många av de problem som vi behöver lösa för att bygga en säker maskinintelligens är svåra matematiska, men det finns anledning att tro att de kan lösas. Ett antal olika organisationer arbetar med frågan, bland annat Human Resources Institute of Oxford, och Machine Intelligence Research Institute (som Peter Thiel finansierar).

MIRI är speciellt intresserad av att utveckla den matte som behövs för att bygga Friendly AI. Om det visar sig att uppstart av konstgjord intelligens är möjlig, kan man först utveckla den här typen av "Friendly AI" -teknologi, om den lyckas, vara den enda viktigaste människan någonsin gjort.

Tror du att artificiell intelligens är farlig? Är du orolig över vad AIs framtid kan ge? Dela dina tankar i kommentarfältet nedan!

Bildkrediter: Lwp Kommunikáció Via Flickr, “Neuralt nätverk“, av fdecomite,” img_7801“, av Steve Rainwater, “Utveckla”, av Keoni Cabral, “new_20x“, av Robert Cudmore, “gem“, av Clifford Wallace

Utforska mer om: Konstgjord intelligens, datautomatisering.