Hur robotar lär sig att läsa och tänka
Vi pratar hela tiden om datorer som förstår oss. Vi säger att Google “visste” vad vi letade efter, eller det Cortana “fick” vad vi sa, men “förståelse” är ett mycket svårt begrepp. Särskilt när det gäller datorer.
Ett område för beräkningslingvistik, kallad naturlig språkbehandling (NLP), arbetar med detta särskilt hårda problem. Det är ett fascinerande fält just nu, och när du har en uppfattning om hur det fungerar kommer du börja se effekterna överallt.
En snabb anteckning: Den här artikeln innehåller några exempel på en dator som svarar på tal, som om du frågar Siri för något. Transformationen av hörbart tal till ett datorförståeligt format kallas taligenkänning. NLP är inte bekymrad över det (åtminstone i den kapacitet vi diskuterar här). NLP kommer bara in i spel när texten är klar. Båda processerna är nödvändiga för många applikationer, men de är två mycket olika problem.
Definiera Förståelse
Innan vi förstår hur datorer hanterar naturligt språk måste vi definiera några saker.
Först av allt måste vi definiera naturligt språk. Det här är ett enkelt: alla språk som används regelbundet av människor faller i denna kategori. Det innehåller inte saker som konstruerade språk (Klingon, Esperanto) eller datorprogrammeringsspråk. Du använder naturligt språk när du pratar med dina vänner. Du brukar också använda den för att prata med din digitala personliga assistent.
Så vad menar vi när vi säger förståelse? Tja, det är komplicerat. Vad betyder det att förstå en mening? Kanske skulle du säga att det betyder att du nu har det avsedda innehållet i meddelandet i din hjärna. Att förstå ett koncept kan innebära att du kan tillämpa det begreppet på andra tankar.
Ordboksdefinitioner är nebulous. Det finns inget intuitivt svar. Filosofer har argumenterat över sådana saker i århundraden.
För vårt syfte kommer vi att säga att förståelsen är förmågan att exakt extrahera mening från naturligt språk. För att en dator ska förstå behöver den noggrant behandla en inkommande ström av tal, konvertera den strömmen till meningsenheter och kunna svara på inmatningen med något som är användbart.
Självklart är detta allt väldigt vagt. Men det är det bästa vi kan göra med begränsat utrymme (och utan neurofilosofi grad). Om en dator kan erbjuda en mänsklig eller åtminstone användbar respons på en ström av naturlig språkinmatning kan vi säga att den förstår. Det här är den definition vi använder framåt.
Ett komplext problem
Naturligt språk är mycket svårt för en dator att hantera. Du kanske säger, “Siri, ge mig anvisningar till Punch Pizza,” medan jag kanske säger, “Siri, Punch Pizza rutt, snälla.”
I ditt uttalande kan Siri välja nyckelordet “ge mig anvisningar,” kör sedan ett kommando relaterat till söktermen “Punch Pizza.” Men i min måste Siri välja ut “rutt” som sökordet och vet det “Punch Pizza” är där jag vill gå, inte “snälla du.” Och det är bara ett förenklat exempel.
Tänk på en artificiell intelligens som läser e-post och avgör om de kan vara bluff eller inte. Eller en som övervakar sociala medier inlägg för att mäta intresse för ett visst företag. Jag arbetade en gång på ett projekt där vi var tvungna att lära en dator att läsa medicinska anteckningar (som har alla möjliga konstiga konventioner) och skaffa information från dem.
Det innebär att systemet skulle kunna hantera förkortningar, konstig syntax, tillfälliga felstavningar och ett stort antal andra skillnader i noterna. Det är en mycket komplex uppgift som kan vara svår även för erfarna människor, mycket mindre maskiner.
Ställa in ett exempel
I det här projektet var jag en del av laget som lärde datorn att känna igen specifika ord och relationerna mellan orden. Det första steget i processen var att visa datorn den information som varje anteckning innehöll, så vi noterade noterna.
Det fanns ett stort antal olika kategorier av enheter och relationer. Ta meningen “Ms. Gröns huvudvärk behandlades med ibuprofen,” till exempel. Fru Green taggades som en person, huvudvärk taggades som SIGN OR SYMPTOM, ibuprofen taggades som MEDICATION. Då var Ms Green kopplad till huvudvärk med ett PRESENTS-förhållande. Slutligen var ibuprofen kopplad till huvudvärk med ett behandlingsförhållande.
Vi märkte tusentals anteckningar på så sätt. Vi kodade diagnoser, behandlingar, symtom, bakomliggande orsaker, sammorbiditeter, doser och allt annat du kan tänka dig relaterat till medicin. Andra annoteringsgrupper kodade annan information, som syntax. Till slut hade vi ett corpus fullt av medicinska anteckningar som AI kunde “läsa.”
Läsning är lika svår att definiera som förståelse. Datorn kan lätt se att ibuprofen behandlar huvudvärk, men när den lär sig den informationen omvandlas den till meningslösa (till oss) sådana och nollor. Det kan säkert ge tillbaka information som verkar vara mänsklig och är användbar, men innebär det förståelse Vilken artificiell intelligens är inte vilken artificiell intelligens som inte är intelligent, känsliga robotar kommer att ta över världen? Inte idag - och kanske inte någonsin. Läs mer ? Återigen är det till stor del en filosofisk fråga.
Den verkliga läran
Vid denna tidpunkt gick datorn igenom noterna och tillämpade ett antal maskininlärningsalgoritmer 4 Maskininlärningsalgoritmer som bildar ditt liv 4 Maskininlärningsalgoritmer som bildar ditt liv Du kanske inte inser det, men maskininlärning är redan runt dig och det kan utöva en överraskande grad av inflytande över ditt liv. Tro mig inte? Du kan bli förvånad. Läs mer . Programmerare utvecklade olika rutiner för att märka delar av tal, analysera beroenden och valkretsar och märka semantiska roller. I huvudsak lärde sig AI att “läsa” anteckningarna.
Forskare kunde så småningom testa det genom att ge det en medicinsk anteckning och be om att märka varje enhet och relation. När datorn exakt reproducerade mänskliga kommentarer var det möjligt att säga att den lärde sig läsa läkaresedlarna.
Därefter handlade det bara om att samla en stor mängd statistik om vad den hade läst: vilka droger används för att behandla vilka störningar, vilka behandlingar som är mest effektiva, de bakomliggande orsakerna till specifika symtomsätt osv. I slutet av processen skulle AI kunna svara på medicinska frågor baserat på bevis från aktuella medicinska anteckningar. Det behöver inte lita på läroböcker, läkemedelsföretag eller intuition.
Djup lärning
Låt oss titta på ett annat exempel. Googles DeepMind neurala nätverk lär sig läsa nyhetsartiklar. Precis som det biomedicinska AI ovan, ville forskarna få ut relevant och användbar information från större textstycken.
Att utbilda en AI om medicinsk information var tuff nog, så du kan tänka dig hur mycket annoterade data du behöver för att göra en AI kunna läsa allmänna artiklar. Att anställa tillräckligt många annotatorer och gå igenom tillräckligt med information skulle vara orimligt dyrt och tidskrävande.
Så vände sig DeepMind-teamet till en annan källa: nyheter webbplatser. Specifikt CNN och Daily Mail.
Varför dessa webbplatser? Eftersom de ger kula spetsiga sammanfattningar av sina artiklar som inte bara drar meningar från själva artikeln. Det betyder att AI har något att lära av. Forskare berättade i grunden AI, “Här är en artikel och här är den viktigaste informationen i den.” Då bad de att dra samma typ av information från en artikel utan bulleted höjdpunkter.
Denna nivå av komplexitet kan hanteras av ett djupt neuralt nätverk, vilket är en särskilt komplicerad typ av maskininlärningssystem. (DeepMind-teamet gör några fantastiska saker på detta projekt. För att få detaljerna, kolla in den här stora översikten från MIT Technology Review.)
Vad kan en läsning göra?
Vi har nu en allmän förståelse för hur datorer lär sig att läsa. Du tar en stor mängd text, berätta för datorn vad som är viktigt och tillämpa några maskininlärningsalgoritmer. Men vad kan vi göra med en AI som drar information från text?
Vi vet redan att du kan dra specifik handlingsbar information från medicinska anteckningar och sammanfatta allmänna artiklar. Det finns ett open source-program som heter P.A.N. som analyserar poesi genom att dra ut teman och bilder. Forskare använder ofta maskininlärning för att analysera stora kroppar med sociala medier, som används av företag för att förstå användarens känslor, se vad människor pratar om och hitta användbara mönster för marknadsföring.
Forskare har använt maskininlärning för att få insikt i e-postbeteenden och effekterna av överbelastning av e-post. E-postleverantörer kan använda den för att filtrera bort spam från din inkorg och klassificera vissa meddelanden som högprioritering. Läsning av AI är avgörande för att göra effektiva kundservice chatbots 8 Bots bör du lägga till i din Facebook Messenger App 8 Bots du borde lägga till i din Facebook Messenger App Facebook Messenger har öppnat för att chatta bots, vilket gör det möjligt för företag att leverera kundservice, nyheter och mer direkt till dig via appen. Här är några av de bästa tillgängliga. Läs mer . Överallt finns det text, det finns en forskare som arbetar med naturlig språkbehandling.
Och eftersom denna typ av maskininlärning förbättras, ökar möjligheterna bara. Datorer är bättre än människor i schack, Go och videospel nu. Snart kan de vara bättre att läsa och lära. Är detta det första steget mot starka AI Här är varför forskare tror att du borde vara orolig för artificiell intelligens. Här är varför forskare tror att du borde vara orolig för artificiell intelligens. Tror du att artificiell intelligens är farlig? Kan AI utgöra en allvarlig risk för mänskligheten. Det här är några anledningar till varför du kanske vill vara orolig. Läs mer ? Vi måste vänta och se, men det kan vara.
Vilka typer av användningar ser du för en textläsning och lärande AI? Vilken typ av maskininlärning tror du att vi kommer att se inom en snar framtid? Dela dina tankar i kommentarerna nedan!
Bildkrediter: Vasilyev Alexandr / Shutterstock
Utforska mer om: Konstgjord intelligens, Futurologi.