Datengetriebenes SEO - eMetrics Berlin 2015

Post on 13-Apr-2017

507 Views

Category:

Internet

0 Downloads

Preview:

Click to see full reader

Transcript

pa.ag

Andor Palau Head of SEO

  Führt das SEO-Team von Peak Ace.   Verantwortlich für alle nationalen und internationalen

strategischen Maßnahmen.

  Verantwortete zuletzt unter anderem das technische und strategische SEO bei TopTarif.

  Ich bin: Sport-Nerd, London-Fan, Fleischesser, Weintrinker, Starbucks-Junkie, Bounty-Nascher, Bücher-liebhaber und Online Marketer aus Leidenschaft

+49 (0)30 832 117 419

ap@peakace.de

Twitter.com/andorpalau

Was wirklich wichtig ist, worauf Sie besser achten und welche Zahlen zählen!

Datengetriebenes SEO

Kennzahlen gibt s viele

Sichtbarkeit PageRank

Anzahl Seiten im Index

CTR

Backlinks

Bouncrate

C-Class

Statuscodes

Traffic Anchortexte

Konversion Impressions

Ladegeschwindigkeit

Trust Flow

Verweildauer

Kennen Sie überhaupt Ihre Webseite?

#1 Wie viele Seiten hat Ihre Domain?

Case Study: vorher Im Index angeblich ca. 244.000 URLs

Case Study: vorher 300K URLs gecrawlt, aber > 1,2 Mio+ URLs on top gefunden

https://www.deepcrawl.com/

#2 Wie viele Traffic haben bestimmte Typen?

Beispiel einer Titel-Sortierung Was haben solche URLs an Traffic? … Im Vergleich: “nichts”!

7,8K von 11,2 Mio ≈ 0,07%

#3 Was passiert wen, ineffiziente URLs entfernt

werden?

Case Study: nachher 300K URLs gecrawlt, nur noch < 0,2 Mio URLs “übrig”

https://www.deepcrawl.com/

#4 Wie viele Links sind auf der Seite?

Das kann nicht effizient sein! … no way!

http://www.seoratiotools.com

#5 Was wird wie verlinkt?

Interne Verlinkung & Anchortext Massiver Mangel an Konsistenz hinsichtlich Zielseiten & Anchortexten.

http://www.seoratiotools.com

#6 Wie schnell lädt Ihre Domain?

Ich bin wirklich NICHT geduldig:

Und das hier regt mich schlichtweg auf! Btw: Nur diese drei Kennzahlen zählen!

http://gtmetrix.com

Google wertet Seiten-Geschwindigkeit … bereits seit 2010!

Full Story: http://pa.ag/1t4xVs6

Und die Nutzer erwarten es auch! Also enttäuscht sie nicht!

“A report from Nielsen has revealed that 47% of people expect a website to load within 2 seconds, and 40%

will leave a website if it does not load fully within 3 seconds.”

http://blog.webcertain.com/slow-page-load-speeds-limit-international-success/28/07/2015/

Crawl-Rate & -Budget optimieren!

Crawl-Rate Optimierung: Was ist das Ziel?

1.  Ein möglichst vollständiger Crawl der Destination in akzeptabler Zeit.

2.  Ein schnelles Bemerken von Änderungen an bestehenden Inhalten und damit ein möglichst zeitnahes Aktualisieren der jeweiligen Inhalte im Index.

3.  Ein schnelles Auffinden von neuen Inhalten / URLs auf einer Domain, so dass selbige schnellstmöglich auch via Google auffindbar sind

4.  Schonender bzw. effizienter Umgang mit Ressourcen im Crawl-Prozess (Serverinfrastruktur sowie Traffic)

Gründe, wie große Webseiten fett werden

•  „Keine-Ergebnisse-zu“-Seiten (keine Produkte in der Kategorie, keine Bewertungen zu Thema ABC, etc.)

•  Gleiche Themen (oder nahezu gleiche Themen) auf mehreren URLs (Duplicate / Near Duplicate Content)

•  Paginierungen nicht sauber gesteuert

•  Faceted Navigation Wildwuchs

•  Wildwuchs bei Tags, Kategorien oder auch UGC

•  Mehrere Versionen der Seiten, mehrere Länder, mehrere Sprachen

•  Etc.

Ausgangspunkt: Google Search Console Sowas sollte nicht passieren! Jemand eine Idee?

http://g.co/searchconsole

Case Study

Massive Crawspace-Verschwendung Oder die Suche nach dem Content in der URL-Wüste

https://www.deepcrawl.com/

Auch das ist sicherlich nicht effizient!

http://www.seoratiotools.com

Interne Verlinkung & Anchortext Die Frage nach dem “wer”.

http://www.seoratiotools.com

Crawlingverbesserung Sichtbarkeitsentwicklung nach Änderung

https://de.sistrix.com

Case Study

Trafficentwicklung bei Agenturmeldungen

  Domain importiert Meldungen der DPA, der AFP und der SID.

  Ca. 500 neue Artikel kommen täglich hinzu.   Im Google Index sind mehr als 449.000 Meldungen aus dem Verzeichnis   Die Logfileanalyse zeigt, dass täglich ca. 3% aller Hits der Googlebots bei der Domain auf

Agenturmeldungen entfallen. Ca. 3% der Crawlerressourcen fließen demnach in ca. 1,13% des Google-Traffics.

  Trafficverlust der Meldungen innerhalb von einem Monat nach Vö: ⦰ 95,72%   Trafficverlust der Meldungen innerhalb von zwei Monaten nach Vö: ⦰ 98,93%

Folge & Maßnahmen

  Agenturmeldungen liefern nach 60 Tagen kaum noch Traffic

  Sie belegen aber einen nennenswerten Teil des Crawl- und Indexierungsbudgets bei Google.

  Agenturmeldungen werden jetzt spätestens nach 60 Tagen gelöscht! (Status Code 410

Gone).

http://g.co/searchconsole

Das Crawl-Budget wird‘s dir danken!

Wenn eine Seite… nicht benötigt wird, löschen Sie sie!

Off-Page

„Aber Links sind doch tot!?“

... oder?

Warum zeigt Google dann Links in der Search Console an?

Warum gibt es dann ein Entwertungs-Tool für schlechte Links?

Warum gibt es dann täglich manuelle Maßnahmen in den Google

Search Consolen dieser Welt?

And last but not least:

Für das Crawl-Budget einer Domain ist ein starkes Linkprofil

absolut essentiell!

•  Anzahl von Links •  Anzahl der Referring Domains

•  Anzahl Links von News Domains •  Link-Alter

http://www.searchmetrics.com/de/knowledge-base/ranking-faktoren/

Ranking-Faktoren So sind die Karten 2015 gemischt

Topical Trust Flow Und warum das spannend ist!

„For each of the 700+ billion pages in our Fresh index, we have

worked out the proximity of the page to one of nearly one thousand

categories.“

https://blog.majestic.com/development/topicaltrustflow/

„For the first time, it becomes blatantly obvious why a link “anywhere”

on a site isn’t enough… unless that site is very focused. “

https://blog.majestic.com/development/topicaltrustflow/

Topical Trust Flow (TTF)

Topical Trust Flow (TTF) #2 Spannend wird’s im Wettbewerbsvergleich

Mehr zum Thema Keywordrecherche: http://bg.vu/sesldn14

30 Tage Test-Account for free

http://pa.ag/majestic_com EMETRICSBER2015

Und da wir schon bei Links sind:

Wie sieht es mit Ihren „Altlasten“ aus?

Google bleibt bei Links aktiv!

http://searchengineland.com/google-betas-dropping-manual-actions-automatically-for-hacked-sites-231569

Google wird nicht vergessen!

http://searchengineland.com/google-says-repeated-violations-of-their-webmaster-guidelines-will-lead-to-further-action-231053

Google möchte in “Real Time” bewerten!

http://searchengineland.com/google-confirms-the-real-time-penguin-algorithm-is-coming-soon-232093

Jetzt geht’s los!

Praxistipps

Und stellen Sie fest, wie viele Seiten/Dateien WIRKLICH existieren!

Mehr Infos: http://pa.ag/large-tech-seo

#1 Crawlen Sie Ihre Domain!

Wo verbringt der Bot am meisten Zeit & schaut er sich das richtige an?

#2 Was treibt Google auf Ihrer Seite wirklich?

#2b Echte Daten gibt’s (nur) in Logfiles! z.B. umsonst mit ELK (Elasticsearch, Logstash, Kibana)

http://logz.io/blog/log-analysis-technical-seo/

Schauen Sie in Ihre Analyticsdaten, wie tief Ihre User wirklich klicken und wie viele diese

Funktionen nutzen.

#2a Prüfen Sie Paginierungsseiten auf Traffic!

Anzahl der Elemente pro Seite erhöhen = weniger URLs im Pager!

#2b Paginierungsseiten verringern!

Wie viele haben Sie? Wie viel Traffic haben „Sorted, listby, mxListType“ & Co wirklich? Rechtfertig dieser ihre Existenz?

#3 Parameter-URLs verringern!

Seiten mit „Organic Visits < 1 in 12M“ auf Mehrwert prüfen, ggf. mit anderen Seiten konsolidieren oder

löschen!

#4 Prüfen Sie Ihre Landingpags auf „Organic Traffic“!

Richtige & konsistente interne Verlinkung als massiver Hebel für Rankings!

#5 Verlinken Sie konsistent!

Requests verringern, Datein minimieren/zusammenlegen, asynchrones Laden, Pre-Fetching, initial View optimieren

Mehr Infos:

http://pa.ag/seokomm-speed

#6 Ladezeit verbessern!

Und bereinigen Sie Ihre interne Verlinkung von 3XX, 4XX, 5XX

#7 Responscode monitoren!

Weg mit den Serverfehlern! Google lässt sich das nicht mehr lange gefallen!

„Whether it's Caffeine or a separate Google update, server errors can negatively impact rankings more quickly now.“

http://searchengineland.com/super-fresh-google-index-server-errors-rankings-impacts-230975

Achten Sie darauf Links von den richtigen Autoritäten zu bekommen!

#8 Prüfen Sie Ihre Links auf Relevanz!

#9 Tool-Empfehlungen

Crawling-Tools: •  http://pa.ag/deepcrawl_com •  http://pa.ag/onpage_org •  http://pa.ag/audisto_com •  http://pa.ag/seoratiotools_com •  http://pa.ag/screamingfrog_co_uk Linktool: •  Majestic

Sitespeed-Tools: •  http://pa.ag/webpagetest_org •  http://pa.ag/gtmetrix_com •  http://pa.ag/sitespeed_io

Und wie viel Anteil haben diese an der Sichtbarkeit/Traffic?

#10 Welche Verzeichnisse haben wie viele URLs?

Und ? Kennen Sie Ihre Webseite?

Vielen Dank! Haben Sie noch Fragen?

+49 (0)30 832 117 419

ap@peakace.de

Andor Palau

twitter.com/andorpalau

facebook.com/peakaceag

www.peakace.de

top related