En kort historia av sökning och hur Google kom ut på toppen

En kort historia av sökning och hur Google kom ut på toppen / Teknologi förklaras

Efter påfrestande att älska Bing Hur Bing Predicts har blivit så bra Hur Bing Predicts har blivit så bra Tid att sluta ditt dagjobb och börja spela via Bing Predictions? Inte riktigt, men låt oss ta en titt på hur Bing har blivit så bra att förutsäga framtiden. Läs mer, flörta med den förbättrade integriteten hos DuckDuckGo 10 Användbara DuckDuckGo Instant svar som sparar dig tid och några klick 10 Användbara DuckDuckGo Instant svar som sparar dig tid och några klick Instant Answers är en samling DuckDuckGo-godsaker som möjligen gör din online-sökning livet lite enklare. Här är tio från en stor lista du kan prova på den här alternativa sökmotorn. Läs mer, och (slutaren) försökte även se om Yahoo var bättre än den senaste gången jag använde den (ungefär 2004), men jag kan fortfarande inte hitta ett bättre alternativ för online-sökning än den regeringsmästaren Google.

Klyftan är smalare, men i slutändan är Google fortfarande kung på grund av att relevansen av resultaten, hastigheten på vilka platser indexeras och sökningar exekveras och deras konstanta tryck för att bli ännu bättre.

Efter ett halvt dussin (eller fler) misslyckade försök under åren för att hitta ett bättre alternativ 13 Alternativa sökmotorer som hittar vad Google kan inte 13 alternativa sökmotorer som hittar vad Google kan Google Search fortfarande inte kan göra allt. Dessa 13 alternativa sökmotorer kan ta hand om några nischjobb för dig. Läs mer, det ledde mig att försöka och dechiffrera vad som gör Google bättre än konkurrenterna i det här utrymmet.

Här är vad jag hittade.

En kort historia om sökmotorteknik

Först anser jag att det är nog klokt att titta på någon av de tekniker som kör sökmotorer Hur fungerar sökmotorer? Hur fungerar sökmotorer? För många människor är Google internet. Det är förmodligen den viktigaste uppfinningen sedan Internet i sig. Och medan sökmotorer har förändrats mycket sedan är de underliggande principerna fortfarande desamma. Läs mer, och de företag som fick oss här.

Skapelsen av Archie (1990)

Archie är allmänt tänkt att vara den första sökmotorn. Även om det var uppenbart primitivt nu var Archie ett verktyg som indexerade offentligt tillgängliga FTP-webbplatser i ett försök att låta användare hitta specifika filer. Detta var världsomspännande webben, så du måste få tillgång till Archieservrarna med hjälp av en lokal klient eller via Telnet. Vad är Telnet och vad används det för? [MakeUseOf Förklarar] Vad är Telnet och vad är dess användning? [MakeUseOf Explains] Telnet är en av de tekniska termerna som du ibland kan höra, men inte i en annons eller en tvättlista för alla produkter du kan köpa. Det beror på att det är ett protokoll eller ett språk ... Läs mer, vilket är ett nätverksprotokoll som tillåter anslutning av två datorer i samma nätverk.

Archie stimulerade innovation i ytterligare teknik som fungerade på ett liknande sätt, som Veronica och Jughead, VLib, Gopher och andra. Dessa tekniker var pionjärerna inom sökindustrin, trots att de snabbt ersattes av mer avancerad teknik.

World Wide Web Wanderer (1993)

Skapad i 1993 var World Wide Web Wanderer den första bot som skapades för att indexera webbplatser och automatiskt sätta in dem i en databas. Wandex började som ett sätt att mäta webens storlek genom att räkna aktiva servrar över hela världen för att mäta tillväxten. I stället blev det ritningen för moderna webbspindlar, som ansvarar för att krypa på webben för att indexera innehållet.

Excite (1993)

Excite var ett projekt av sex studenter på Stanford University som försökte använda statistisk analys av relationer i det gemensamma språket för att förbättra relevansen i indexeringen. Excite - då känd som Architext - använde journalister för att skriva korta webbsidor för förbättrad användbarhet jämfört med mer primitiva länkbaserade sökmotorer och kataloger.

Sökmotorn Boom (1994)

1994 var förmodligen det enskilt största året i sökmotorns historia. Inom en tolvmånadersperiod såg vi lanseringen av Infoseek, AltaVista, WebCrawler, Yahoo! och Lycos.

  • Infoseek: Tillåtna användare att skicka in sina webbsidor i realtid och indexera dem automatiskt baserat på användardefinierade kategorier.
  • Altavista: Den första sökmotorn som använder obegränsad bandbredd, tillåter sökfrågor för naturliga språk och användningen av sökmodifierare för att godkänna resultat.
  • WebCrawler: Den första sökroboten som indexerade hela sidorna i motsats till bara titlar eller titlar och beskrivningar.
  • Lycos: Den första sökmotorn sorterar efter relevans. Lycos hade också konsekvent den största databasen med lagrade webbplatser och på topp (cirka 1996) hade tjänsten granskats och indexerat över 60 miljoner webbplatser.

Sökmotorer under denna tidsperiod (och flera år senare) gjorde stor nytta av metataggar som innehöll titel, beskrivning och nyckelordselement som läggs till på en webbplats av webmaster. Dessa taggar, liksom sökordsdensitet i texten på en webbplats, var de primära rankingfaktorerna som hjälpte spindlarna för att korrekt identifiera och indexera innehåll.

Det öppnade också dörren för webspam, så tidigt SEO-experter lärde sig snabbt att manipulera detta system genom att fylla nyckelord i taggar och innehåll på ett onaturligt sätt i ett försök att spela systemet.

Fråga / Fråga Jeeves (1997)

Fråga - och deras Fråga Jeeves-tjänst - använde mänskliga redaktörer för att försöka lista populära sökfrågor till listor på både partner och betalda inkluderingswebbplatser. Tjänsten använde automation i form av ett rankningssystem som heter DirectHit, vilket försökte rangordna webbplatser efter popularitet, men de fann att det var för lätt att manipulera och upphört att använda motorn några år senare.

MSN / Bing (1998/2009)

MSN lanserade sin egen sökmotor för att piggyback på framgången för andra Microsoft-produkter och segue till online-sökning. Sökmotorn förlitade sig på Overture, Looksmart och andra betald inklusionskataloger för att tillhandahålla sökresultat tills Google visade framgången med deras backlink-modell.

Detta bevis på koncept från Google ledde till att MSN antog en liknande strategi - men inte så bra - 2004.

Under 2009 rebranded MSN som Bing, och förbättrade användargränssnittet, för att inkludera inline-sökning (förslag som visas som du skriver), innehåll som visas på sökresultatsidan (i motsats till att du måste klicka på en länk till ett av sökresultaten ), och en mängd nya funktioner som är utformade för att göra sökningen lättare och mer tillgänglig.

Hur Google blev bäst (och varför det fortfarande är)

I slutet av 90-talet hade sökmotorer blivit nästan oanvändbara på grund av relevansen (eller bristen på det) av sökresultat och förekomsten av webspam. Innan lanseringen 1998, och för ett halvt årtionde efter, hade konkurrenterna verkligen inget svar på de problem som orsakats av webspam och sökmotorisk manipulation - vilket i slutändan blev känd som SEO (sökmotoroptimering).

Ange Google.

Google startade som ett projekt - känt som BackRub - av Larry Page och Sergey Brin 1996. Syftet med detta projekt var att revolutionera sökningen genom att använda länkar som den primära rankningsmetoden för att förbättra relevansen. Teorin - känd som citationsnotation - rörde sig om idén om att varje webbplats som länkades till en annan webbplats, väsentligen uttryckte sitt förtroende för innehållet som erbjuds inom sina sidor. Dessa länkar fungerade som röster, och ankare texten i länken fungerade som ett sätt att indexera webbplatser baserat på vad andra utfärde dessa röster för.

Tekniken var spännande, och det ledde Brin och Page att försöka sälja den till konkurrenter i sökvärlden för en rapporterad $ 750.000. Lyckligtvis var ingen intresserad. Tillbaka till ritbordet fortsatte Page och Brin att förbättra tekniken och år 2000 var Google den största sökmotorn i världen.

Hur Google stannar överst

Anpassningsbarhet kan vara det bästa sättet att beskriva hur Google är den mest använda sökmotorn i världen. Som marknadsförare och sökmotorister lär sig att manipulera systemet ändrar Google det. När ny teknik - som sociala medier - börjar spela en aktiv roll i våra konversationer, finner Google en väg att integrera dem i algoritmen för att förbättra relevansen. När sökvanor ändras ändras Google med dem.

Google tittar kontinuerligt, analyserar och utvecklar. Genom att använda de enorma mängder data som de samlar in från var och en av oss med sina produkter, kan de ständigt leverera en bättre, mer relevant och användarvänlig produkt än någon av sina konkurrenter.

Vad framtiden för sökning ser ut som

Medan Google ligger på toppen och det inte verkar vara några konkurrenter i horisonten som kan avstå från dem, förändras saker snabbt på webben. Här är vad Google - och andra - gör för att förbättra relevansen av våra sökresultat både nu och inom en snar framtid.

Förstå användarens avsikt och semantik

Sökmotorer - inklusive Google - brukade leverera resultat baserat på hur bra frågor matchade upp med webbsidor. Nu, Bing, Google och Yahoo! Alla försöker förbättra sina resultat baserat på förståelsen av avsiktet bakom dem, så kallad semantisk sökning. Vad Semantic Markup är och hur det kommer att förändra Internet Forever [Teknologi förklaras] Vilken semantisk markering är och hur den kommer att förändra Internet för alltid [Teknologi förklaras ] Läs mer .

Till exempel, om en användare söker efter “Bästa skaldjur” - resultat i år tidigare skulle förlita sig på vilken webbplats som ansågs vara mest auktoritativ för dessa sökord. Nu lägger sökmotorerna större vikt vid att förstå vad du letar efter specifikt, så att de kan leverera de mest optimerade resultaten. I det här fallet är användaren mest sannolikt ute efter de bästa fiskrestaurangerna i närheten, eller recept. Förstå att över trillioner av möjliga sökfrågor är där saker blir komplicerade.

Större betoning på plats

Ovanstående exempel på en fråga om skaldjur är en av de främsta anledningarna att platsen blir så viktig. Du söker förmodligen inte söttrestauranger i San Francisco om du bor i Singapore (men om du är, lägg bara till “i San Francisco” till din fråga). Platsbaserad sökning ändrar allt eftersom alla större sökmotorer nu använder din plats för att kunna leverera anpassade resultat för dina sökningar.

Förbättrad mobilupplevelse

2015 var första gången i historien att mobiltrafik överskred den för bärbara datorer och stationära datorer, och det är fortfarande en trend med snabb uppåtgående rörelse. Faktum är att den flesta webbtrafik som härrör från smartphones är sökrelaterad. På grund av den förändringstid vi lever i är det viktigt att leverera en polerad mobilupplevelse till mobilanvändare.

Google gör just detta genom att släppa en ny mobilalgoritm som döljer webbplatser som inte visas korrekt på mobila enheter. Denna algoritmiska förändring är endast för mobiltrafik, men den borde berika upplevelsen för mobilanvändare och leda till ytterligare mobil innovation.

Yahoo! är en annan stor sökmotor med fokus på mobil. VD Marissa Mayer (en tidigare Google-anställd) har skiftat fokus för Yahoo! för att prioritera mobil som ett primärt sätt att återvinna relevans.

Kunskapsgraf

Bing och Google satsas både i stor utsträckning på att utnyttja sina massiva databaser med information för att ge snabb information om specifika nyckelord och fraser. För att förbättra användarupplevelsen försöker båda att eliminera ytterligare steg som användaren måste ta för att hitta information och istället förlita sig på kunskapsgrafteknik. En djup titta på Googles nya kunskapsgraf. En djup titta på Googles nya kunskap Grafik Läs mer .

Exempelvis innehåller filmer, kändisnamn eller platsrelaterade frågor nu information om frågan högst upp på sidan. För snabba sökningar kan detta spara dig ytterligare steg att behöva gräva djupare genom resultaten eller besöka flera webbplatser för att hitta informationen.

Detta har stora konsekvenser för mobil, såväl som röstsökning (som Siri eller Google Now), eftersom de flesta sökningar är snabba försök att hämta infromation i motsats till uttömmande sökningar efter forskning.

Hitta nya sätt att förbättra algoritmer

Sökmotorer är ständigt i krig mot varandra, liksom de okända som lurar precis runt hörnet. I ett försök att vara bäst måste varje leverera mycket relevanta resultat och snabbt. Som sådan förändras algoritmer på alla större sökmotorer ständigt i ett försök att hålla sig före kurvan och hitta nya mätvärden som kan leda till bättre resultat.

Ett av de mest spännande exemplen på detta kan vara kunskapsbaserat trustresultat Kan Google använda en algoritm för att bestämma sanningen? Kan Google använda en algoritm för att bestämma sanningen? Google undersöker om dess algoritm kan innefatta sanning som en rankingfaktor. Vad betyder det för webben? Läs mer, baserat på ett patent som innehas av Google. Medan Google helt och hållet har förnekat någon avsikt att använda detta patent i sin sökalgoritm inom en snar framtid, är konsekvenserna av det enorma. Om du någonsin har fått dålig information efter en sökning på nätet kan det här nya poängsystemet ändra allt av rankningsplatser baserat på resultat i Googles Knowledge Vault (faktabutiker dras från indexerat innehåll) och hur bra de matchar.

I slutändan försöker man förutse vilken sökmotorteknik som är ute efter det närmaste året eller två, ser ut som en överlägsen övning i förnöjsanhet. Med detta sagt borde det fortsätta att få oss ett steg närmare en ålder där vi möttes med svaret på någon fråga på ett nära ögonblick.

Finns det en bättre sökmotor än Google? Vad gör det bättre? Vilka sökrelaterade tekniker eller ändringar är du mest glada att se inom en snar framtid? Ljud av i kommentarerna nedan. Jag skulle gärna höra ditt tag!

Bildkredit: Sökmotor via Shutterstock, Firefox Mobile av Johan Larsson via Flickr, Website-kodoptimering via Shutterstock

Utforska mer om: Google, Google Sök, Microsoft Bing, Websökning.