Linkbuilding ist nicht out

War es eine Zeitlang verpönt, Links zu sammeln, so gilt heute mehr denn je: Links ja, aber bitte qualitativ hochwertige Links.

Voraussetzung für Linkbuiling ist natürlich Content. Content, der die Zielgruppe interessiert. Dann wird er in den sozialen Medien auch ge- und verteilt.

Ist Content vorhanden, sollten folgende Punkte auf jeden Fall berücksichtigt und im besten Fall optimiert werden:

  • derzeitige Erwähnungen auf anderen Webseiten um Verlinkung bitten
  • Broken Links analysieren und umleiten oder korrigieren
  • Links von Wettbewerbern analysieren und ggf als Inspiration nutzen

Mehr zu Linkbuilding-Strategien finden sich auf internetworld

Ein cooles Tool, das den gesamten Prozess rund um den Content- und Linkbuildingprozess abdeckt, ist Linkbird. Leider nicht kostenfrei, aber hier im Kurztest vorgestellt >>>.

Eine Anleitung für den Crawler

Damit Seiten bei den Suchmaschinen weit oben gelistet werden, ist es nicht nur wichtig, tollen Content zu haben, auch die technische Seite sollte nicht vernachlässigt werden.

Ganz oben auf der Optimierungsliste sollte die robots.txt und die meta robots tags stehen.

Die robots.txt gibt an, inwieweit ein Bot die Website crawlt. Als “Türsteher” erlauben sie, welcher Crawler welche Verzeichnisse durchsuchen darf.

Die meta robots tags steuern den Crawler und legen für jede html-Seite fest, was der Crawler mit der Indexierung und den Links der Seite machen soll.

Detaillierte technische Infos finden sich bei online-marketing.de

 

Ranking optimieren auch in der Bildersuche

Wer nicht nur auf der Ergebnisseite der Suchmaschinen gelistet sein will, der sollte sich Gedanken über Traffic bei der Bildersuche machen.

OnlineMarketing erklärt die wichtigsten Faktoren:

  • Bilder mit Keywords benennen
  • Abkürzungen vermeiden
  • spezifische Informationen verbinden
  • einheitliche Dateinamen
  • Alt-Tag sinnvoll nutzen
  • Bildtitel nicht unterschätzen
  • Bildunterschriften mit Keywords versehen
  • Ankertexte mit Schlagworten verbinden

 

Schon mal was vom Crawl Budget gehört?

Und wie man das optimieren kann?

Große Webseiten mit umfangreichen Unterseiten möchten nicht nur die erste Ebene im Suchindex wiederfinden, sondern auch Unterseiten mit relvanten Infos. Dazu müssen dem Suchbot diese Seiten auch angeboten werden. Doch wie schafft man das, wenn der Suchriese Google die Anzahl seiner zu crawlenden Seiten limitiert? Denn der hat bei dem riesigen Angebot von Inhalten im Netz nicht die Möglichkeit jeden Tag jede Webseite nach Neuigkeiten zu durchsuchen. Daher hat sich Google überlegt, ein sogenanntes “Crawl Budget” einzuführen.

Dabei geht es darum, dass für jede Domain ein individuelles “Budget” vergebenwird das bestimmt, wie oft der Crawler die Domain aufruft und wie tief die Seite gecrawlt wird.

Ausführliche Infos, wie man dies im Dashboard prüfen kann, finden sich bei xovi >>> Dort gibt es auch den Tipp, bestimmte Seiten dem Suchbot einfach zu verwehren, um damit wichtigeren Seiten den Vorragn zu geben.

 

Wie es Pinterest mit so um die 75 Milliarden einzelne Pins und damit einer Unmenge an Content – auch Duplicate Content – schaffte, seine Sichtbarkeit im Suchindex um 344 Prozent (in 2016) zu steigern, haben die OnlineMarketingRockstars recherchiert >>>

Wer will schon allgemein, wenn er speziell haben kann…

Der Suchalgorithmus des Branchenriesen hatte im letzten Jahr einige Updates erfahren:

  • das Core-Update zum Jahresstart: Vorn gelistet wurden Seiten, die relevante und qualitativ hochwertige Inhalte für die Nutzeranfrage liefern.
  • das Mobile Update 2 im Mai: Hier werden nun mobilfreundliche Seiten in den mobilen Suchergebnissen bevorzugt. Domains, die nicht für mobile Endgeräte (insbesondere Smartphones) optimiert sind, mussten Rankingverluste hinnehmen.
  • das Phantom-4-Update im Juli: Wie der Name verrät, ging es um geringwertigen und Duplicate Content als auch um strukturell versteckte Inhalte.
  • das Penguin-4-Update im Oktober: Die Pinguin-typischen Backlink- und Spam-Detektoren sind nun Teil des Google-Kernalgorithmus.

Sie hinterlassen Gewinner und Verlierer bei den Suchergebnissen.

Searchmetrics hatte das ausgewertet und kam zu dem Schluß,  dass Special-Interest-Seiten weiter Aufwind erhielten, während General-Interest-Portale an Sichtbarkeit verloren.

SEO Updates

Quelle: Searchmetrics

 

Kommunikation der Zukunft – Gib Chatbots eine Chance

Da spricht nicht mehr der gelangweilte und unfreundliche Mitarbeiter der Hotline mit dir – gut es gibt natürlich Ausnahmen – sondern Alexa. Die nette Stimme aus der Röhre von Amazon.

Das solchen künstlichen Intelligenzen den Vertrieb unterstützen, ist Zukunftsmusik, die nicht mehr so lange auf sich warten wird. Ebay setzte bereits einen Chat-Bot ein, der dem Nutzer auf Basis seiner Anfrage Produktvorschläge in einem Chat-Interface unterbreitet. Auf ein neues Niveau in der Kundenkommunikation hebt Amzons Alexa den Kaufprozess: Der Nutzer sagt dem virtuellen Verkaufs-Bot lediglich, was er haben möchte. Alles was dann kommt, passiert von allein –  ohne Klick, ohne Website, ohne Bildschirm.

Tools und Tipps fürs Online-Marketing

Neben den bekannten Webmastertools, die der Suchriese anbietet, gibt es noch einiges andere, was man sich mal genauer anschauen sollte:

  • Ready Creatives
  • Structured Data Testing Tool
  • Structured Data Markup Helper
  • Google URL-Builder für Kampagnen
  • Autoren-Statistik in den Google Webmaster Tools
  • Google Tag Manager
  • SiteApps
  • ….

 

Mehr und die Details dazu bei t3n >>>

Ranking ohne Content

Content ist King. Das hört man doch immer wieder. Aber wie kommt guter Content in den Suchmaschinen auch nach oben? Dafür gibt es ein paar Möglichkeiten, wie man sein Ranking optimieren kann:

  • Snippets – ansprechend, keyword-reich und mit einem Call-to-Action beschreiben; idealerweise noch mit Rich Snippet Informationen aufwerten
  • Crawlability und Indexierung – mittels guten Verlinkungen innerhalb der Seite den Crawlern eine Navigation durch die Seite ermöglichen
  • Page Speed – ein guter Page Speed Wert liegt im Idealfall unter 2 Sekunden (2’000 ms)
  • Backlinks und Social Links – nicht nur Quantität, eher die Qualität der Links ist wichtig; dazu zählen u.a. Themenrelevanz oder die Internetpopularität

[via blueglass]

Monitoring- und Analytics-Tools

Unterschiede und Gemeinsamkeiten:

  • Social Media Monitoring und Social Analytics: Passive systematische Beobachtung und Analyse der Gespräche und Interaktionen im Social Web
  • Social Media Engagement: Proaktives Agieren und Reagieren des Unternehmens mit dem Nutzer im Social Web

Analyse und Monitoring

 

 

 

 

 

 

 

 

 

 

 

Und welches Tool könnte zu welcher Auswertung passen? Hier gibt es eine Beispiele.

 

So funktioniert SEO

Man kann es nicht oft genug sagen: SO sollte eine gute suchmaschienenoptimierte Webseite aussehen…

  • lass den Bot (technisch) scrawlen
  • denke an “guten” Content
  • Inhalte zum Teilen anbieten
  • die Seite sollte leicht zu bedienen sein
  • kann der Inhalt auf vielfältigen Geräten ordentlich angezeigt werden
  • ein bisschen meta darf es sein

 

[via Moz Blog, in deutsch aufbereitet von Björn Tantau]

SuMa optimierte Webseite