3 sätt kan du ta bort oönskade bloggar från Google
Är du troende i tanken att när någonting publiceras på Internet publiceras det för alltid? Tja, idag kommer vi att skingra den myten.
Sanningen är att det i många fall är ganska möjligt att radera information från Internet. Visst finns det en lista över webbsidor som har tagits bort om du söker på Wayback-maskinen, eller hur? Ja, absolut. På Wayback Machine finns det register över webbsidor som går tillbaka många år - sidor som du inte hittar med en Google-sökning eftersom webbsidan inte längre existerar. Någon raderade den, eller webbplatsen stängdes av.
Så det går inte att komma runt det, eller hur? Informationen kommer för alltid att bli inristad i stenen på Internet, där det finns generationer att se? Tja, inte exakt.
Sanningen är att medan det kan vara svårt eller omöjligt att utplåna stora nyheter som har spridit sig från en nyhetswebbplats eller blogg till en annan som ett virus, är det faktiskt ganska enkelt att helt utrota en webbsida eller flera webbsidor från alla poster för att ta bort den sidan för både sökmotorer och Wayback-maskinen. Den nya Wayback-maskinen kan du visuellt åka tillbaka i Internet-tid. Den nya Wayback-maskinen kan du visuellt resa tillbaka i Internet-tid. Det verkar som att Wayback Machine-lanseringen i 2001, har webbplatsägare beslutat att kasta ut Alexa-baserade back-end och redesigna den med egen öppen källkod. Efter att ha utfört test med ... Läs mer. Det finns naturligtvis en fångst, men vi kommer till det.
3 sätt att ta bort bloggar från nätet
Den första metoden är den som majoriteten av webbplatsägare använder, eftersom de inte vet något bättre - helt enkelt raderar webbsidor. Detta kan hända eftersom du har insett att du har dubblet innehåll på din webbplats, eller för att du har en sida som du inte vill dyka upp i sökresultaten.
Ta bort sidan helt enkelt
Problemet med att helt radera sidor från din webbplats är att eftersom du redan har etablerat sidan på nätet kommer det sannolikt att vara länkar från din egen webbplats samt externa länkar från andra webbplatser till den aktuella sidan. När du tar bort det, erkänner Google omedelbart den sidan av din som en saknad sida.
Så, när du har raderat din sida har du inte bara skapat ett problem med “Hittades inte” krypfel för dig själv, men du har också skapat ett problem för alla som någonsin har länkat till sidan. Vanligtvis kommer användare som kommer till din webbplats från en av dessa externa länkar att se din 404-sida, vilket inte är ett stort problem, om du använder något som Googles anpassade 404-kod för att ge användarna användbara förslag eller alternativ. Men du skulle tro att det kunde finnas mer graciösa sätt att ta bort sidor från sökresultat utan att sparka bort alla dessa 404-tal för befintliga inkommande länkar, till höger?
Jo, det finns det.
Ta bort en sida från Googles sökresultat
Först och främst bör du förstå att om webbsidan du vill ta bort från Googles sökresultat inte är en sida från din egen webbplats så är du inte lyckad om det inte finns juridiska skäl eller om webbplatsen har lagt upp din personliga information online utan ditt tillstånd. Om så är fallet, använd sedan Googles borttagningsfelsökare för att skicka en begäran om att sidan ska tas bort från sökresultaten. Om du har ett giltigt fall kan det hända att du lyckas med att sidan har tagits bort. Naturligtvis kan du ha ännu större framgång, bara kontakta webbplatsägaren. Ta bort False personuppgifter på Internet. Ta bort False personuppgifter på Internet Läs mer som jag beskrivit hur man gör tillbaka 2009.
Om den sida du vill ta bort från sökresultaten är nu på din egen webbplats har du lycka till. Allt du behöver göra är att skapa en robots.txt fil och se till att du inte har godkänt den specifika sidan du inte vill ha i sökresultaten eller hela katalogen med det innehåll som du inte vill ha indexerat. Här är det som blockerar en enda sida som ser ut.
Användaragent: * Tillåta: /mydelad-artikel-dette--vanligt-förvalt.html
Du kan blockera bots från att krypa hela katalogerna på din webbplats enligt följande.
Användaragent: * Tillåt: / innehåll-om-personliga saker /
Google har en utmärkt supportsida som kan hjälpa dig att skapa en robots.txt-fil om du aldrig har skapat en tidigare. Det här fungerar väldigt bra som jag förklarade nyligen i en artikel om strukturering av syndikatavtal. Hur man förhandlar syndikationsavtal och skyddar dina sökrankningar. Hur man förhandlar syndikationsavtal och skyddar dina sökrankningar. Syndicating är allt raseri idag. Men plötsligt kan du upptäcka att syndikeringspartnern är listad högre än dig i sökresultaten för en historia som du ursprungligen skrev! Skydda din sökrankning. Läs mer så att de inte skadar dig (fråga syndikeringspartner om att inte tillåta indexering av deras sidor där du syndikeras). När min egen syndikeringspartner kom överens om att göra det, försvann sidorna som duplicerade innehållet från min blogg helt från söklistor.
Endast huvudwebbplatsen kommer upp på tredje plats för sidan där de listar vår titel, men min blogg är nu listad på både första och andra platserna; något som skulle ha varit nästan omöjligt hade en högre auktoritet webbplats lämnat duplicerad sida indexerad.
Vad många människor inte inser är att det också går att göra med Internet Archive (Wayback Machine). Här är de linjer du behöver lägga till i robots.txt-filen för att få det att hända.
Användaragent: ia_archiver Tillåt: / sample-category /
I det här exemplet berättar jag på internetarkivet om att ta bort allt i underkatalogen för provkategori på min webbplats från Wayback-maskinen. Internetarkivet förklarar hur man gör det på deras sida för uteslutning. Detta är också där de förklarar det “Internetarkivet är inte intresserad av att ge tillgång till webbplatser eller andra Internetdokument vars författare inte vill ha materialet i samlingen.”
Detta flyger i motsats till den allmänt hållna övertygelsen att allt som läggs upp på Internet blir svept upp i arkivet för all evighet. Nope - webbansvariga som äger innehållet kan specifikt ha innehållet borttaget från arkivet med hjälp av robots.txt-tillvägagångssättet.
Ta bort en enskild sida med metataggar
Om du bara har några enskilda sidor som du vill ta bort från Google sökresultat behöver du inte använda robots.txt-tillvägagångssättet alls, du kan helt enkelt lägga till rätt “robotar” metakod till de enskilda sidorna och berätta för robotarna att inte indexera eller följa länkar på hela sidan.
Du kan använda “robotar” meta ovan för att stoppa robotar från att indexera sidan, eller du kan specifikt berätta för Google-roboten att inte indexera så att sidan bara tas bort från Googles sökresultat och andra sökrobotar kan fortfarande komma åt sidinnehållet.
Det är helt upp till dig hur du vill hantera vilka robotar som gör med sidan och huruvida sidan visas. För bara några enskilda sidor kan det här vara det bättre tillvägagångssättet. För att ta bort en hel katalog över innehåll, gå med robots.txt-metoden.
Idéen av “Ta bort” Innehåll
Den här typen av vänder hela uppfattningen av “raderar innehåll från Internet” på huvudet. Tekniskt, om du tar bort alla dina egna länkar till en sida på din webbplats, och du tar bort den från Google Search och Internet Archive med robots.txt-tekniken, är sidan för alla ändamål “raderade” från internet. Den snygga grejen är dock att om det finns befintliga länkar till sidan, fungerar dessa länkar fortfarande och du kommer inte att utlösa 404 fel för de besökarna.
Det är en mer “mild” tillvägagångssätt för att ta bort innehåll från Internet utan att fullständigt förstöra webbplatsens befintliga länk popularitet över hela Internet. I slutändan handlar det om hur du hanterar vilket innehåll som samlas in av sökmotorer och Internet Archive, men du kommer alltid ihåg att trots det folk säger om livslängden för saker som får bli upplagd på nätet, är det verkligen helt under din kontroll.
Utforska mer om: Google, Google Sök, SEO, Webbdesign, Verktyg för webbansvariga.