Konzepte Und Techniken Zur Suchmaschinenoptimierung

From Shadow Accord
Jump to: navigation, search


SEO - Suchmaschinenoptimierung, das Ziel dieses Artikels ist es, die Grundlagen der Techniken zur Suchmaschinenoptimierung zu erörtern, damit jeder die Strategie entwickeln kann, um mehr Traffic auf seine Website zu bringen. Bei der Suchmaschinenoptimierung geht es darum, Ihre Website in den Suchergebnissen aufzulisten, die Ihre Website tatsächlich von einer Suchmaschine indizieren. Bevor wir uns mit den Optimierungskonzepten befassen, werfen wir einen kurzen Blick auf die Strategie hinter Suchmaschinen.

Bedeutung von SEO

Mit all den grundlegenden Informationen über das Verhalten und die Funktionalität einer Suchmaschine haben viele Experten die Möglichkeiten analysiert, Websites zu optimieren, um sie in den Suchergebnissen verfügbar zu machen.

Eine Platzierung in den Suchmaschinenergebnissen wird immer mehr Besucher auf Ihre Website locken. Diese Besucher werden wiederum zu potenziellen Kunden für Ihr Unternehmen. Mit anderen Worten, das Aufsteigen in den Suchergebnissen ist eine großartige Form der Werbung, bei der ein Unternehmen seine Produkte und Funktionen über eine Website bewerben kann, um mehr Kunden zum Kauf ihrer Produkte zu bewegen. Selbst eine große Anzahl bekannter Marken verlässt sich immer noch auf Suchmaschinen, um Besucher auf ihre Website zu locken.

Wenn eine Website bereit ist, alle Ihre Produkte und Funktionen zu erfassen, ist es damit nicht getan. Eine Website, die nicht in einem Suchergebnis angezeigt wird, wenn jemand danach sucht, ist fast so, als ob die Website überhaupt nicht existiert. Bei jeder Art von Werbung gibt es einige Faktoren wie die geografische Region, die berücksichtigt werden müssen, um potenzielle Kunden anzusprechen.

Suchmaschinen

Über 93 % der Internetnutzer verwenden Suchmaschinen, um die verfügbaren Informationen zu filtern. Es gibt viele Suchmaschinen, aber die beliebtesten sind Google, Bing und Yahoo. Unter diesen 3 beliebten Suchmaschinen führt Google die Rangliste an, indem es 70 % des gesamten Suchmaschinenmarktanteils hält. In diesem Artikel untersuchen wir das allgemeine Verhalten einer Suchmaschine und einige spezifische Funktionen, die für bestimmte Suchmaschinen gelten.

Suchlisten und Benutzereinstellungen

Wenn ein Benutzer in Google nach einem bestimmten Produkt sucht, werden in den Suchergebnissen Tausende und Millionen von Websites angezeigt, die mit seinem Suchbegriff übereinstimmen. Diese Suchliste kann auf zwei Arten kategorisiert werden. Eine davon sind die bezahlten Anzeigen, die in der oberen und rechten Spalte aller Suchergebnisse erscheinen.

Das andere ist das Suchergebnis direkt unter der obersten Anzeige, die als organische Ergebnisse bezeichnet wird. Wenn ein Benutzer nach einem Schlüsselwort sucht, werden mehrere hundert und Millionen Websites, die mit der Suche in Verbindung stehen, als organische Einträge aufgelistet.

75 % der Nutzer scrollen nie über die erste Seite der Suchergebnisse hinaus. Darunter ziehen es 63 % der Benutzer vor, nur auf die ersten 3 Ergebnisse zu klicken, die oft als "Goldenes Dreieck"-Auflistung bezeichnet werden.

Bei Google werden diese bezahlten Sucheinträge vom Dienst Google AdWords angeboten. Auch andere Suchmaschinenanbieter betreiben einen ähnlichen Dienst. Alle diese Dienste werden auf der Basis von „Pay per Click" angeboten. Yahoo Search Marketing ist ein schlüsselwortbasierter „Pay-per-Click"-Internetwerbedienst, der von Yahoo bereitgestellt wird.

Unabhängig von all diesen Optimierungen werden diese Sucheinträge bei bezahlten Suchen ganz oben verfügbar sein. Aber 70-80 % der Nutzer ignorieren die bezahlten Anzeigen und konzentrieren sich auf die organischen Ergebnisse.

Suchmaschinentypen und -verhalten

Im Allgemeinen gibt es zwei Arten von Suchmaschinen.

- Crawler-basiert
- Von Menschenhand angetrieben
Crawler-basiert

Dies sind Suchmaschinen, die von automatisierten Software-Agenten betrieben werden, die automatisch ohne menschliches Eingreifen ausgeführt werden. Diese Software-Agenten, Bots, Spider oder Crawler genannt, besuchen alle Seiten einer Website. Wenn Crawler auf einer Seite landen, suchen sie zuerst nach dem Schlüsselwort der Seite. Das Schlüsselwort hier ist das am häufigsten verwendete oder behandelte Wort auf dieser Seite. Sobald das Schlüsselwort identifiziert ist, wird die Seite in der Datenbank der Suchmaschine unter diesem Schlüsselwort indexiert. Dieser Vorgang wird als Web-Crawling bezeichnet. Die Crawler können zu allen auf einer Seite verfügbaren Links navigieren. Anschließend besucht der Crawler alle Seiten in regelmäßigen Zeitabständen erneut, um zu überprüfen, ob sich die auf diesen Seiten bereitgestellten Informationen geändert haben.

Jede Suchmaschine hat ihren eigenen Bot, um Daten zu sammeln. Googlebot ist Googles Web-Crawling-Bot, Bingbot ist ein Web-Crawling-Roboter, der von Microsoft eingesetzt wird, um Bing bereitzustellen, und SLURP ist der Crawler für Yahoo.

Von Menschenhand angetrieben

Online-Verzeichnisse wie Yahoo Directory und Open Directory verlassen sich auf menschliche Redakteure, um den Index zu pflegen. Im Gegensatz zu Crawler-basierten Maschinen wird dieser Index nur aktualisiert, wenn eine Person den Index manuell aktualisiert. Diese Art von Verzeichnis ermöglicht es Benutzern, ihre Suche einzugrenzen.

In beiden Fällen ist der Mechanismus zum Erzeugen der Suchergebnisse derselbe. Wenn ein Benutzer nach einem Schlüsselwort sucht, wird nicht der gesamte Webpool nach dem relevanten durchsucht. Stattdessen wird der Index der Suchmaschine abgefragt, um die bevorzugte Seite zu finden. Abgesehen von diesen beiden spezifischen Typen verwenden einige Suchmaschinen ein Hybridmodell, das sowohl von Menschen betriebene als auch Crawler-basierte Suchmaschinen umfasst.

Indizierung

Bei der Indexierung werden nicht nur das Keyword und die URL, von der es gefunden wurde, in der Datenbank gespeichert. Andere Informationen wie die folgenden werden ebenfalls gespeichert:

Platzierung von Schlüsselwörtern
Keyword-Anzahl auf einer Seite
Haben die von hier verlinkten Seiten auch das Keyword?
Mit all diesen Informationen wird allen Einträgen im Index ein Gewicht zugeordnet, mit dem das Ranking bestimmt wird. Jede Suchmaschine verwendet verschiedene Algorithmen, um einem Schlüsselwort eine Gewichtung zuzuweisen.

Abfrage des Suchmaschinenindex

Dies ist nichts anderes als das Erstellen einer Suche. Ein von einem Benutzer geliefertes Suchschlüsselwort kann ein einzelnes Schlüsselwort oder eine Kombination von Schlüsselwörtern sein. In beiden Fällen wird mit diesem Keyword der Suchmaschinenindex abgefragt. Bei einer Kombination wird je nach Bedarf ein boolescher Operator eingefügt, um das Ergebnis zu verfeinern.

Jede Suchmaschine hat ihren eigenen Algorithmus und eigene Techniken, um jeder Keyword-Platzierung eine Gewichtung zuzuweisen.

Optimierungstechniken

Im Allgemeinen können Suchmaschinenoptimierungstechniken in Onpage- und Offpage-Optimierungstechniken eingeteilt werden, was für fast alle Suchmaschinen gilt.

OnPage-Optimierung

Mögliche Optimierungsschritte, die in einer Seite oder einer Site selbst durchgeführt werden können. Dies sind die auf einer Website oder Webseite verfügbaren Faktoren, die ihre Position in den Suchlisten beeinflussen. Im Folgenden sind einige der wichtigsten Onpage-Optimierungsfaktoren aufgeführt

Keyword-Targeting

Keyword-Targeting entspricht eher der Zuordnung der Begriffe, die ein Benutzer mithilfe einer Suchmaschine sucht, mit den Begriffen, die auf Ihrer Website verfügbar sind. Die Auswahl der richtigen Keyword-Liste spielt eine entscheidende Rolle bei der Optimierung einer Website, um sie in den organischen Suchlisten zu platzieren. Ein Schlüsselwort sollte relevant sein für:

- Das Geschäft
- Der Inhalt der Website
- Die potenziellen Kunden, die angesprochen werden
Bevor Sie ein Keyword abschließen, müssen Sie unbedingt die folgenden Funktionen sicherstellen:

- Traffic für dieses Keyword - Suchen Nutzer wirklich oft nach diesem Keyword? Wie häufig taucht dieses Keyword in der Suche auf?
- Reichtum des Keywords - Kennen Sie Ihre Konkurrenten. Beliebte Websites fallen unter diese Stichwortsuche.
Sobald wir mit den Schlüsselwörtern, die uns wichtig sind, ankommen, wird es helfen, sie auf der Website an den notwendigen Stellen auszurichten, um bei dieser spezifischen Schlüsselwortsuche einen besseren Rang einzunehmen.

Keyword-Platzierungen

Sorgen Sie immer für Keyword-Platzierungen in den folgenden Schlüsselbereichen einer Website.

Das Titel-Tag der Seite

Dies ist diejenige, die als Kopfzeile angezeigt wird, wenn Ihre Website in den Suchergebnissen aufgeführt wird. Hier ist das Schlüsselwort erforderlich.

Salesforce-Implementierungspartner in Phoenix, Arizona|MST-Lösungen

Meta-Tag

Meta-Beschreibung
Dies ist die Endzeilenbeschreibung für eine Website, wenn sie in den Suchergebnissen aufgeführt wird. Dies ist, was ein Benutzer liest, bevor er darauf klickt. Eine bessere und treffende Beschreibung wird immer mehr Benutzer auf die Seite locken.

Meta-Wiederholung
Dies würde dem Crawler mitteilen, wann er die Website erneut besuchen soll

Bild-Alt-Attribut

Das alt-Attribut gibt einen alternativen Text für ein Bild an, wenn das Bild nicht angezeigt werden kann. Das Platzieren des Schlüsselworts im Alt-Attribut stellt sicher, dass Ihre Bilder bei der Bildsuche erfasst werden, bei der der Alt-Attributwert in Verbindung mit den Suchbegriffen verwendet wird

Header-Tags

H1-Tags verbessern das Seitenranking. Als höchste Ebene von Header-Tags würde es Informationen darüber geben, worum es auf der Seite geht. Es würde von einem Benutzer leicht identifiziert werden, wenn die Seite besucht wird. Crawler prüfen immer die Relevanz des Headers mit seinem Inhalt und allen anderen Inhalten der Seite. Aus diesen Gründen haben Suchmaschinen H1-Tags im Vergleich zu allen anderen Tags stärker gewichtet.

Um den genauen Zweck von H1-Tags voll auszuschöpfen, stellen Sie Folgendes sicher:

- Es gibt nur ein H1-Tag für die gesamte Seite
- Schlüsselwort wird im H1-Tag platziert
Abgesehen davon müssen diese Schlüsselwörter Teil des Domainnamens und der Seiten-URL der Website sein

Offpage-Optimierung

Domänenautorität

Das Vertrauen der Suchmaschine gewinnen - Wenn es viele Websites unter einem bestimmten Schlüsselwort gibt, legen Suchmaschinen einige Vertrauensmetriken für eine Website fest, um die Qualität des Inhalts der Website zu bestimmen. Diese Vertrauenskennzahlen umfassen, sind aber nicht beschränkt auf:

- Die Anzahl der eingehenden Links zu der Website
- Backlinks von anderen Websites - Die Häufigkeit, mit der die Website von anderen Websites verwiesen wird
- Social Media Sharing - Häufigkeit, mit der der Inhalt der Website in sozialen Netzwerken geteilt wird.
- Aktive Beteiligung an relevanten Community-Gesprächen wie Bloggen
- Hinzufügen von Links zu Verzeichnissen wie Open Directory - Die Anmeldung bei kostenpflichtigen Verzeichnissen wie Yahoo Directory und Open Directory ist eine Form, um Ihre Links an anderen Stellen im Internet zu finden.
All dies sind wie Bestätigungen für die Website. In einfachen Worten, Suchmaschinen suchen nach der Zeit, die andere Websites direkt über Ihre Website sprechen.

Attraktive und relevante Inhalte auf der Website

Wenn Sie die Aufmerksamkeit von mehr Benutzern auf die Website lenken möchten, stellen Sie immer sicher, dass die Inhalte Ihrer Website für das relevant sind, wonach die Benutzer genau suchen. Machen Sie die Inhalte attraktiver und kreativer, was automatisch den Traffic auf Ihrer Website erhöht und andere Websites dazu bringt, wiederum auf die Website zu verweisen.

Machen Sie Ihre URL sauber und stellen Sie die Qualität der Inhalte sicher, die Sie auf der Website veröffentlichen. Dies bleibt der wichtigste Optimierungstipp für Bing.

Symbole teilen

Aktivieren Sie Social-Media-Sharing-Symbole auf den Seiten der Website, die es Besuchern ermöglichen würden, Ihre Inhalte in Social Media zu teilen und zu liken

Technisches SEO

Sitemap.xml

Sitemap.xml ist eine XML-Datei, die Suchmaschinen über die URLs der Website informiert, die zum Crawlen verfügbar sind. Eine Sitemap-Datei wird normalerweise im Stammverzeichnis einer Website gespeichert. Diese Datei wird zur Indizierung an Suchmaschinen übermittelt. Jeder Link in der Datei hat Attribute, die die Häufigkeit angeben, mit der sich der Inhalt der Site ändert, das Datum der letzten Änderung der Seite und die Priorität der Seite. Die maximale Größe der Sitemap beträgt 50 MB oder 50.000 URLs. Eine Site kann mehr als eine Sitemap-Datei haben.

Google hat Google Sitemaps eingeführt, die es Webentwicklern ermöglichen, Linklisten von allen ihren Websites zu veröffentlichen. Der Grundgedanke dabei ist, dass einige Websites eine große Anzahl dynamischer Seiten haben, die nur durch die Verwendung von Formularen und Benutzereingaben verfügbar sind. Die Sitemap-Datei enthält URLs zu diesen Seiten, damit Webcrawler sie finden können. Bing, Google, Yahoo und Ask (ein weiterer Anbieter von Suchmaschinendiensten) unterstützen jetzt gemeinsam die Sitemaps mit demselben Protokoll. Eine Sitemap auf einer Website lässt also die vier größten Suchmaschinen über die aktualisierten Seiteninformationen verfügen.

Attribute

- URL-Speicherort
- Das Datum der letzten Aktualisierung einer Seite
- Frequenz seiner Änderungen
- Priorität
Datei Format



http://beispiel.com/

01.01.2014

Täglich

0,8

Diese Dateien können mit Hilfe einfacher Skripte dynamisch in einer Site generiert werden.

Roboter. txt

Dies ist eine einfache Textdatei, die im Stammverzeichnis einer beliebigen Website abgelegt wird und das sogenannte Robots Exclusion Protocol enthält. Diese Datei enthält die Anweisungen der Website für einen Crawler. Dies gibt die Liste der Seiten an, die von einer Suchmaschine indiziert werden sollen und nicht. Wenn eine Suchmaschine auf die Website trifft, sucht sie nach der robots.txt und befolgt alle Anweisungen in dieser Datei. Wenn Suchmaschinen keine robots.txt finden, gehen sie einfach davon aus, dass diese Seite keine Anleitung dafür hat und indizieren daher alles, was sie auf dem Weg finden. Dies würde dazu führen, dass alle Inhalte der Website indexiert werden.

Neben Google, Bing und Yahoo gehorchen auch die anderen großen Suchmaschinen wie AOL, Baidu und Yandex einer Robots.txt in diesem Format

Datei Format:

User-Agent:

Nicht zulassen:

Hier ist der User-Agent die Suchmaschine und Disallow hat das Verzeichnis und die Liste aller Seiten, die von der Indizierung ausgeschlossen werden müssen.

Unten ist ein einfaches Beispiel für Robots.txt, das bestimmte Ordner für den Googlebot nicht zulässt

User-Agent: Googlebot

Nicht zulassen: /assets/

Nicht zulassen: /tmp/

Nicht zulassen: /cgi-bin/

Nachfolgend finden Sie eine Beispiel-Roboterdatei, die den Zugriff auf bestimmte Dateien für alle Suchmaschinen-Roboter verhindert

User-Agent: *

Nicht zulassen: /~pub/bar.html

Hier zeigt * alle Bots aller Suchmaschinen an. Der Speicherort einer Sitemap wird ebenfalls in Robots.txt angegeben.

SEO-Don’ts

Black Hat SEO – Dies ist eine Praxis, bei der unethische Techniken oder Tricks verwendet werden, die alle Suchmaschinenregeln brechen und sich nur darauf konzentrieren, in Suchmaschinen gelistet zu werden. Nachfolgend sind einige dieser Techniken aufgeführt, die beim Optimieren einer Website nicht angewendet werden sollten.

Keyword-Stuffing – Ein Vorgang, bei dem die Website mit sich wiederholenden Keywords überladen wird. Die Leute wenden diese Technik an, um die Anzahl der Schlüsselwörter einer Website zu erhöhen, um das Ranking der Website in den Suchergebnissen zu verbessern, aber Suchmaschinen würden dies leicht finden und die Website dauerhaft oder vorübergehend sperren.
Cloaking – Eine Technik, bei der sich der dem Suchmaschinen-Spider präsentierte Inhalt von dem unterscheidet, der dem Browser des Benutzers präsentiert wird. Der Zweck von Cloaking besteht manchmal darin, Suchmaschinen zu täuschen, damit sie die Seite anzeigen, wenn sie sonst nicht angezeigt würde
Doppelte Inhalte – Ähnliche Inhalte sind auf mehr als einer Website verfügbar.
Falsche robots.txt - Beim Erstellen einer Robots-Datei für die Website ist viel Sorgfalt erforderlich. Jede falsche Aussage würde dazu führen, dass entweder unerwünschte Seiten indiziert werden oder gar nichts
Versteckter Text – Ähnlich wie beim Keyword-Stuffing, bei dem Schlüsselwörter auf der Website versteckt werden. Einige bekannte Orte sind versteckte Schlüsselwörter, versteckte H1-Tags.


If you have any type of questions regarding where and the best ways to make use of Onpage SEO, you could call us at our own internet site.