Hur fungerar optiska och kvanta datorer?

Hur fungerar optiska och kvanta datorer? / Framtida Tech

Datorhistoriken är full av flops.

Apple III hade en otrevlig vana att laga sig i sitt deformerade skal. Atari Jaguar, en "innovativ" spelkonsol som hade några falska påståenden om prestanda, kunde bara inte fånga marknaden. Intels flaggskepp Pentium-chip utformat för högpresterande redovisningsprogram hade svårigheter med decimaltal.

Men den andra typen av flopp som råder i världen av databehandling är FLOPS-mätningen, en lång tid som en rimligt rättvis jämförelse mellan olika maskiner, arkitekturer och system.

FLOPS är ett mått på Floating Point Operations per sekund. Enkelt sagt, det är hastighetsmätaren för ett datorsystem. Och det har växt exponentiellt i årtionden.

Så vad sägs om att jag berättade om att om några år har du ett system som sitter på ditt skrivbord, eller på din TV eller i din telefon, som skulle torka golvet i dagens superdatorer? Otrolig? Jag är en galning? Ta en titt på historien innan du dömer.

Supercomputer till Supermarket

En ny Intel i7 Haswell Så Vad är skillnaden mellan Intels Haswell och Ivy Bridge CPU? Så vad är skillnaden mellan Intels Haswell och Ivy Bridge CPU? Letar du efter en ny dator? De som köper en ny Intel-drivlad bärbar dator eller skrivbord behöver veta skillnaderna mellan den senaste och den senaste generationen av Intel-processorer. Read More-processor kan utföra cirka 177 miljarder FLOPS (GFLOPS), vilket är snabbare än den snabbaste superdatorn i USA 1994, Sandia National Labs XP / s140 med 3.680 datorkärnor som arbetar tillsammans.

En PlayStation 4 kan fungera på cirka 1,8 Trillion FLOPS tack vare sin avancerade Cell-mikroarkitektur och skulle ha trumpet den $ 55 miljoner ASCI Red-superdatorn som toppade den globala superdatorliga ligan 1998, nästan 15 år innan PS4 släpptes.

IBMs Watson AI-system IBM avslöjar revolutionerande "Brain on a Chip" IBM avslöjar revolutionerande "Brain on a Chip". Förra veckan via en artikel i Science, är TrueNorth det som kallas "neuromorf chip" imiterar biologiska neuroner, för användning i intelligenta datorsystem som Watson. Read More har en (nuvarande) toppoperation 80 TFLOPS, och det finns ingenstans nära att låta den gå in i Top 500-listan över dagens superdatorer, med den kinesiska Tianhe-2 på topp 500 de senaste tre på varandra följande tillfällena, med toppresultat av 54 902 TFLOPS eller nästan 55 Peta-FLOPS.

Den stora frågan är var är den nästa stationära superdatorn Den senaste datatekniken du måste se för att tro på den senaste datatekniken du måste se för att tro Kolla in några av de senaste datortekniken som är inställda för att omvandla världen av elektronik och datorer över de närmaste åren. Läs mer kommer att komma ifrån? Och ännu viktigare, när får vi det?

En annan tegelsten i kraftväggen

I den senaste historien har drivkrafterna mellan dessa imponerande snabbare vinster varit i materialvetenskap och arkitekturdesign. mindre tillverkningsprocesser med nanometerskala innebär att chips kan bli tunnare, snabbare och dumpa mindre energi i form av värme vilket gör dem billigare att springa.

Även med utvecklingen av multi-core-arkitekturer under slutet av 2000-talet, pressas många "processorer" nu på ett enda chip. Den här teknologin, i kombination med den ökade mognaden hos distribuerade beräkningssystem, där många datorer kan fungera som en enda maskin, innebär att Top 500 alltid har ökat, bara överensstämmer med Moores berömda lag.

Men fysikens lagar börjar komma i vägen för all denna tillväxt, även Intel är orolig över det, och många över hela världen jaktar på nästa sak.

... Omkring tio år eller så kommer vi att se kollaps av Moores lag. Faktum är att vi redan ser en avtagande av Moores lag. Datorkraft kan helt enkelt inte bibehålla sin snabba exponentiella ökning med hjälp av standard kiselteknik. - Dr Michio Kaku - 2012

Det grundläggande problemet med nuvarande bearbetningsdesign är att transistorerna är antingen på (1) eller av (0). Varje gång en transistorsport "vänder", måste den utvisa en viss mängd energi i det material som porten är gjord av för att göra det "flip". Eftersom dessa grindar blir mindre och mindre, kommer förhållandet mellan energin att använda transistorn och energin att "flip" transistorn blir större och större vilket ger stora problem med uppvärmning och tillförlitlighet. Nuvarande system närmar sig - och i vissa fall överstiger - den råa värme densiteten hos kärnreaktorer, och material börjar misslyckas med sina konstruktörer. Detta kallas klassiskt "Power Wall".

Nyligen har vissa börjat tänka annorlunda om hur man utför användbara beräkningar. Framför allt har två företag blivit uppmärksammade när det gäller avancerade former av kvant- och optisk databehandling. Kanadensiska D-Wave Systems och UK-baserade Optalysys, som båda har extremt olika tillvägagångssätt för mycket olika problemuppsättningar.

Dags att byta musik

D-Wave fick mycket press på sistone, med sin superkylda, oskärpa svarta låda med en extremt cyberpunk interiörspik, innehållande ett gåtfullt naken-chip med svårt att tänka sig.

I grunden tar D2-systemet ett helt annat sätt att lösa problem genom att effektivt slänga regelboken för orsak och effekt. Så vilken typ av problem är detta Google / NASA / Lockheed Martin som stöds för att syfta till?

Rambling Man

Historiskt sett, om du vill lösa ett NP-Hard eller Intermediate-problem, där det finns ett extremt stort antal möjliga lösningar som har ett brett spektrum av potentialer, använder "klassiska" metoder inte det klassiska tillvägagångssättet. Ta till exempel problemet med Traveling Salesman; Ange N-städer, hitta den kortaste vägen för att besöka alla städer en gång. Det är viktigt att notera att TSP är en viktig faktor på många områden som tillverkning av mikrochip, logistik och till och med DNA-sekvensering,

Men alla dessa problem koka ner till en tydligen enkel process; Välj en punkt som ska startas från, skapa en rutt runt N 'saker', mät avståndet och om det finns en befintlig rutt som är kortare än den, kassera försöket och fortsätt till nästa tills det inte finns fler rutter att kontrollera.

Det låter enkelt, och för små värden är det; För 3 städer finns 3 * 2 * 1 = 6 rutter för att kontrollera, för 7 städer finns 7 * 6 * 5 * 4 * 3 * 2 * 1 = 5040, vilket inte är så illa för en dator att hantera. Detta är en faktoriell sekvens och kan uttryckas som “N!”, så 5040 är 7!.

Men när du går bara lite längre, till 10 städer att besöka, måste du testa över 3 miljoner rutter. När du kommer till 100, är ​​antalet rutter du behöver kontrollera 9 följt av 157 siffror. Det enda sättet att titta på dessa slags funktioner använder en logaritmisk graf där y-axeln startar vid 1 (10 ^ 0), 10 (10 ^ 1), 100 (10 ^ 2), 1000 (10 ^ 3 ) och så vidare.

Siffrorna blir bara för stora för att på ett rimligt sätt kunna bearbeta alla maskiner som finns idag eller kan existera med hjälp av klassiska databehandlingar. Men vad D-Wave gör är väldigt annorlunda.

Vesuvius framträder

Vesuvius-chipet i D2 använder omkring 500 qubits eller Quantum Bits för att utföra dessa beräkningar med en metod som kallas Quantum Annealing. I stället för att mäta varje rutt i taget ställs Vesuvius Qubits i ett superpositionsläge (varken på eller utanför, fungerar tillsammans som ett slags potentiellt fält) och en serie av alltmer komplexa algebraiska beskrivningar av lösningen (dvs. en serie av Hamiltonian beskrivningar av lösningen, inte en lösning i sig) appliceras på superpositionsfältet.

I själva verket testar systemet lämpligheten för varje potentiell lösning samtidigt som en boll "bestämmer" vilken väg som ska gå nerför en kulle. När superpositionen är avslappnad till ett marktillstånd, bör det jordliga tillståndet hos qubitsna beskriva den optimala lösningen.

Många har ifrågasatt hur mycket av en fördel D-Wave-systemet ger över en vanlig dator. I ett senare test av plattformen mot ett typiskt Traveling Saleman Problem, som tog 30 minuter för en klassisk dator, tog bara en halv sekund på Vesuvius.

Men för att vara tydlig, kommer det aldrig att vara ett system du spelar Doom på. Vissa kommentatorer försöker jämföra detta högspecialiserade system mot en generell processor. Du skulle bättre kunna jämföra en ubåt i Ohio-klassen med F35 Lightning; Alla mätvärden du väljer för en är så olämpliga för den andra att vara värdelös.

D-Wave klockar in i flera storleksordningar snabbare för sina specifika problem jämfört med en standardprocessor, och FLOPS uppskattningar sträcker sig från en relativt imponerande 420 GFLOPS till en ansträngande 1,5 Peta-FLOPS (sätter den i topp 10 superdatorn lista i 2013 vid tiden för den senaste offentliga prototypen). Om något, framhäver denna skillnad början på slutet av FLOPS som en universell mätning när den tillämpas på specifika problemområden.

Detta område av beräkning riktar sig till en mycket specifik (och mycket intressant) uppsättning problem. Oroande är att ett av problemen inom denna sfär är kryptografi Kryptera din Gmail, Hotmail och annan Webmail: Så här krypterar du Gmail, Hotmail och annan Webmail: Så här redogjorde Edward Snowdens NSA-uppenbaringar för chock och vördnad i amerikanska hushåll, som individer och Familjer började inse att deras kommunikationer inte var så privata som de ursprungligen trodde. Att delvis lugna några ... Läs mer - specifikt Public Key Cryptography.

Tack vare D-Wave-implementeringen är D-Wave-implementeringen fokuserad på optimeringsalgoritmer, och D-Wave har tagit vissa designbeslut (som den hierarkiska peeringstrukturen på chipet) som indikerar att du inte kunde använda Vesuvius för att lösa Shors algoritm, vilket potentiellt låser upp Internet så dåligt skulle det göra Robert Redford stolt.

Lasermatriser

Det andra företaget på vår lista är Optalysys. Detta brittiska baserade företag tar databehandling och vrider den på huvudet med hjälp av analog överlagring av ljus för att utföra vissa klasser av beräkning med hjälp av själva ljusets natur. Nedanstående video visar några av bakgrunden och grundarna i Optalysys-systemet, som presenterades av prof. Heinz Wolff.

Det är lite handvågigt, men i grunden är det en låda som förhoppningsvis en dag sitter på ditt skrivbord och ger beräkningsstöd för simuleringar, CAD / CAM och medicinsk bildbehandling (och kanske, kanske bara datorspel). Precis som Vesuvius, finns det inget sätt att Optalysys-lösningen ska utföra vanliga datoruppgifter, men det är inte det som det är utformat för.

Ett användbart sätt att tänka på den här typen av optisk bearbetning är att tänka på det som en fysisk grafikbehandlingsenhet (GPU). Modern GPU Lär känna din grafiska accelerator i skrämmande detaljer med GPU-Z [Windows] Lär känna din grafiska accelerator i skrämmande detaljer med GPU-Z [Windows] GPU- eller grafikbehandlingsenheten är den del av din dator som ansvarar för hantering av grafik. Med andra ord, om spel är illa på din dator eller det kan inte hantera mycket högkvalitativa inställningar, ... Läs mer använder många många strömmande processorer parallellt och utför samma beräkning på olika data som kommer från olika minnesområden. Denna arkitektur kom som ett naturligt resultat av hur datorgrafik genereras, men denna massivt parallella arkitektur har använts för allt från högfrekvent handel till konstgjorda neurala nätverk.

Optalsys tar liknande principer och översätter dem till ett fysiskt medium; datadisitionering blir stråldelning, linjär algebra blir kvantinterferens, MapReduce-stilfunktioner blir optiska filtreringssystem. Och alla dessa funktioner fungerar i konstant, effektivt momentan, tid.

Den ursprungliga prototypenheten använder ett 20Hz 500 × 500 elementnät för att utföra Snabba Fouriertransformationer (i grunden, “vilka frekvenser visas i denna ingångsström?”) och har levererat en underwhelming ekvivalent av 40 GFLOPS. Utvecklare riktar sig mot ett 340 GFLOPS-system vid nästa år, vilket med tanke på den beräknade strömförbrukningen, skulle vara ett imponerande resultat.

Så var är min svarta lådan?

Berättelsens historia En kort historia av datorer som förändrade världen En kort historia av datorer som förändrat världen Du kan spendera år som deltar i datorns historia. Det finns massor av uppfinningar, massor av böcker om dem - och det är innan du börjar komma in i fingrarna som oundvikligen uppträder när ... Läs mer visar oss att det som börjar är reserven av forskningslaboratorier och myndigheter snabbt gör sin väg till konsumenten hårdvara. Tyvärr har databashistoriken inte behövt ta itu med begränsningarna i fysikens lagar ännu.

Personligen tror jag inte att D-Wave och Optalysys kommer att vara den exakta tekniken vi har på våra skrivbord om 5-10 år. Tänk på att den första igenkännliga “Smart klocka” presenterades 2000 och misslyckades eländigt; men kärnan i tekniken fortsätter idag. På samma sätt kommer dessa undersökningar i kvant- och optiska beräkningsacceleratorer förmodligen att sluta som fotnoter i "nästa stora sak".

Materialvetenskap spetsar närmare biologiska datorer, med hjälp av DNA-liknande strukturer för att utföra matematik. Nanoteknik och "Programmerbar materia" närmar sig punkten var snarare än att bearbeta "data", materialet i sig kommer både att innehålla, representera och bearbeta information.

Sammantaget är det en modig ny värld för en beräkningsforskare. Var tror du att allt går? Låt oss prata om det i kommentarerna!

Photo credits: KL Intel Pentium A80501 av Konstantin Lanzet, Asci red - tflop4m av USA: s regering - Sandia National Laboratories, DWave D2 av Vancouver Sun, DWave 128chip av D-Wave Systems, Inc., Traveling Salesman Problem av Randall Munroe (XKCD)

Utforska mer om: CPU.