Suchen Sie Motoroptimierung

Suchmotoroptimierung (SEO) ist der Prozess, die Sichtbarkeit einer Website oder einer Webseite in Suchmotoren "natürlich", oder unbezahlt zu verbessern ("organisch" oder "algorithmisch"), suchen Sie Ergebnisse. Im Allgemeinen früher (oder höher aufgereiht auf der Suchergebnis-Seite), und öfter erscheint eine Seite in der Suchergebnis-Liste, mehr Besucher, die es von den Suchmotorbenutzern empfangen wird. SEO kann verschiedene Arten der Suche, einschließlich Bildsuche, lokaler Suche, Videosuche, akademischer Suche, Nachrichtensuche und industriespezifischer vertikaler Suchmotoren ins Visier nehmen.

Als eine Internetmarketingstrategie denkt SEO, wie Suchmotoren arbeiten, wonach Leute, die wirklichen Suchbegriffe oder Schlüsselwörter suchen, die in Suchmotoren getippt sind, und die suchen, werden Motoren von ihrem ins Visier genommenen Publikum bevorzugt. Optimierung einer Website kann mit dem Redigieren seines Inhalts und HTML und des vereinigten Codierens verbunden sein, um seine Relevanz zu spezifischen Schlüsselwörtern sowohl zu vergrößern als auch Barrieren für die Indexieren-Tätigkeiten von Suchmotoren zu entfernen. Die Förderung einer Seite, um die Zahl von backlinks oder Inbound-Verbindungen zu steigern, ist eine andere SEO Taktik.

Das Akronym "SEOs" kann sich beziehen, um Motor optimizers "zu suchen," ein Begriff, der durch eine Industrie von Beratern angenommen ist, die Optimierungsprojekte im Auftrag Kunden, und durch Angestellte ausführen, die SEO innerbetriebliche Dienstleistungen durchführen. Suchen Sie Motor kann optimizers SEO als ein eigenständiger Dienst oder als ein Teil einer breiteren Marktkampagne anbieten. Weil wirksamer SEO Änderungen zum HTML-Quellcode eines Seite- und Seite-Inhalts verlangen kann, kann SEO Taktik in die Website-Entwicklung und das Design vereinigt werden. Der Begriff "freundlicher Suchmotor" kann gebraucht werden, um Website-Designs, Menüs, zufriedene Verwaltungssysteme, Images, Videos, Einkaufswagen und andere Elemente zu beschreiben, die zum Zweck der Suchmotoraussetzung optimiert worden sind.

Geschichte

Webmaster und zufriedene Versorger haben begonnen, Seiten für Suchmotoren Mitte der 1990er Jahre zu optimieren, weil die ersten Suchmotoren das frühe Web katalogisierten. Am Anfang mussten alle Webmaster tun sollte die Adresse einer Seite oder URL-ADRESSE zu den verschiedenen Motoren vorlegen, die eine "Spinne" senden würden, um "zu kriechen", den Seite, Extrakt mit anderen Seiten davon und auf der Seite gefundener Rückinformation verbindet, mit einem Inhaltsverzeichnis versehen zu werden. Der Prozess ist mit einer Suchmotorspinne verbunden, die eine Seite herunterlädt und es auf dem eigenen Server des Motors der Suche versorgt, wo ein zweites Programm, bekannt als ein indexer, Extrakte, die die verschiedene Information über die Seite, wie die Wörter, die es enthält, und wo diese, sowie jedes Gewicht für spezifische Wörter und alle Verbindungen die Seite gelegen werden, enthält, die dann in einen Planer gelegt werden, um zu einem späteren Zeitpunkt zu kriechen.

Seite-Eigentümer haben angefangen, den Wert anzuerkennen, ihre Seiten zu haben, die hoch aufgereiht und in Suchmotorergebnissen sichtbar sind, eine Gelegenheit sowohl für den weißen Hut als auch für schwarzen Hut SEO Praktiker schaffend. Gemäß dem Industrieanalytiker Danny Sullivan sucht der Ausdruck "Motoroptimierung" ist wahrscheinlich in Gebrauch 1997 eingetreten. Der erste dokumentierte Gebrauch der Begriff-Suchmotoroptimierung war John Audette und seine Gesellschaft Multimedia Marketing Group, wie dokumentiert, durch eine Webseite von der MMG Seite vom August 1997.

Frühe Versionen von Suchalgorithmen haben sich auf die von den Webmastern vorausgesetzt dass Information wie das Schlüsselwort meta Anhängsel oder Index-Dateien in Motoren wie ALIWEB verlassen. Anhängsel von Meta stellen einem Handbuch zum Inhalt jeder Seite zur Verfügung. Wie man fand, war das Verwenden meta Daten, um Seiten mit einem Inhaltsverzeichnis zu versehen, jedoch weniger als zuverlässig, weil die Wahl des Webmasters von Schlüsselwörtern im meta Anhängsel eine ungenaue Darstellung des wirklichen Inhalts der Seite potenziell sein konnte. Ungenaue, unvollständige und inkonsequente Daten in meta Anhängseln haben gekonnt und haben wirklich Seiten veranlasst, sich für irrelevante Suchen aufzureihen. Webinhalt-Versorger haben auch mehrere Attribute innerhalb der HTML-Quelle einer Seite in einem Versuch manipuliert, sich gut in Suchmotoren aufzureihen.

Indem

Sie sich soviel auf Faktoren verlassen wie, Schlüsselwort-Dichte, die exklusiv innerhalb einer Kontrolle eines Webmasters früh waren, suchen Sie Motoren haben unter dem Missbrauch und der sich aufreihenden Manipulation gelitten. Um bessere Ergebnisse ihren Benutzern zur Verfügung zu stellen, suchen Sie Motoren mussten sich anpassen, um sicherzustellen, dass ihre Ergebnis-Seiten die relevantesten Suchergebnisse, aber nicht Seiten ohne Beziehung gezeigt haben, die mit zahlreichen Schlüsselwörtern durch skrupellose Webmaster voll gestopft sind. Seit dem Erfolg und der Beliebtheit eines Suchmotors wird durch seine Fähigkeit bestimmt, die relevantesten Ergebnisse zu jeder gegebenen Suche zu erzeugen, das Erlauben jener Ergebnisse, falsch zu sein, würde Benutzer drehen, um andere Suchquellen zu finden. Suchen Sie Motoren haben geantwortet, indem sie kompliziertere sich aufreihende Algorithmen entwickelt worden ist, zusätzliche Faktoren in Betracht ziehend, die für Webmaster schwieriger waren zu manipulieren.

Studenten im Aufbaustudium an der Universität von Stanford, Larry Page und Sergey Brin, haben "Backrub", ein Suchmotor entwickelt, der sich auf einen mathematischen Algorithmus verlassen hat, um die Bekanntheit von Webseiten abzuschätzen. Die Zahl, die durch den Algorithmus, PageRank berechnet ist, ist eine Funktion der Menge und Kraft von Inbound-Verbindungen. PageRank schätzt die Wahrscheinlichkeit, dass eine gegebene Seite von einem Webbenutzer erreicht wird, der zufällig das Web surft, und Verbindungen von einer Seite bis einen anderen folgt. Tatsächlich bedeutet das, dass einige Verbindungen stärker sind als andere, weil eine höhere Seite von PageRank mit größerer Wahrscheinlichkeit vom zufälligen Surfer erreicht wird.

Page und Brin haben Google 1998 gegründet. Google hat einen loyalen folgenden unter der steigenden Zahl von Internetbenutzern angezogen, die sein einfaches Design gemocht haben. Faktoren außer Seite (wie PageRank und Hypertext-Link-Analyse) wurden sowie aufseitigem Faktoren (wie Schlüsselwort-Frequenz, meta Anhängsel, Kopfstücke, Verbindungen und Seite-Struktur) betrachtet, um Google zu ermöglichen, die Art der Manipulation zu vermeiden, die in Suchmotoren gesehen ist, die nur aufseitigem Faktoren für ihre Rangordnungen gedacht haben. Obwohl PageRank schwieriger war zu spielen, hatten Webmaster bereits Verbindungsbauwerkzeuge entwickelt, und Schemas, Inktomi zu beeinflussen, suchen Motor, und diese Methoden haben sich ähnlich anwendbar auf spielenden PageRank erwiesen. Viele Seiten haben sich darauf konzentriert, Verbindungen häufig auf einer massiven Skala auszutauschen, zu kaufen, und zu verkaufen. Einige dieser Schemas, oder Verbindungsfarmen, haben die Entwicklung von Tausenden von Seiten zum alleinigen Zweck der Verbindung spamming eingeschlossen.

Vor 2004 suchen Sie Motoren hatten eine breite Reihe von geheim gehaltenen Faktoren in ihren sich aufreihenden Algorithmen vereinigt, um den Einfluss der Verbindungsmanipulation zu reduzieren. Google sagt, dass es Seiten mit mehr als 200 verschiedenen Signalen aufreiht. Die Hauptsuchmotoren, Google, Bing, und Yahoo, geben die Algorithmen nicht bekannt, die sie verwenden, um Seiten aufzureihen. SEO Dienstleister, wie Rand Fishkin, Barry Schwartz, Aaron Wall und Jill Whalen, haben verschiedene Annäherungen studiert, um Motoroptimierung zu suchen, und haben ihre Meinungen in Online-Foren und blogs veröffentlicht. SEO Praktiker können auch durch verschiedene Suchmotoren gehaltene Patente studieren, in die Algorithmen Einblick zu gewinnen.

2005 hat Google begonnen, Suchergebnisse für jeden Benutzer zu personifizieren. Abhängig von ihrer Geschichte von vorherigen Suchen hat Google Ergebnisse für den geloggten in Benutzern gefertigt. 2008 hat Bruce Clay gesagt, dass "Rangordnung" wegen der personifizierten Suche tot ist. Es würde sinnlos werden, um zu besprechen, wie sich eine Website aufgereiht hat, weil seine Reihe für jeden Benutzer und jede Suche potenziell verschieden sein würde.

2007 hat Google eine Kampagne gegen bezahlte Verbindungen diese Übertragung PageRank bekannt gegeben. Am 15. Juni 2009 hat Google bekannt gegeben, dass sie Maßnahmen ergriffen hatten, um die Effekten von PageRank zu lindern, der durch den Gebrauch des Nofollow-Attributes auf Verbindungen bildhauert. Matt Cutts, ein wohl bekannter Softwareingenieur an Google, hat bekannt gegeben, dass Google Bot Nofollowed-Verbindungen ebenso nicht mehr behandeln würde, um SEO Dienstleister davon abzuhalten, nofollow für bildhauernden PageRank zu verwenden. Infolge dieser Änderung führt der Gebrauch von nofollow zu Eindampfung von pagerank. Um zu vermeiden, dass die SEO obengenannten, Ingenieure alternative Techniken entwickelt haben, die nofollowed Anhängsel durch verfinsterten Javascript ersetzen und so bildhauerndem PageRank erlauben. Zusätzlich sind mehrere Lösungen darauf hingewiesen worden, dass den Gebrauch von iframes, Flash und Javascript einschließen.

Im Dezember 2009 hat Google bekannt gegeben, dass es die Websuchgeschichte aller seiner Benutzer verwenden würde, um Suchergebnisse zu bevölkern.

Google Moment, Echtzeitsuche, wurde gegen Ende 2009 in einem Versuch eingeführt, Suchergebnisse rechtzeitiger und wichtig zu machen. Historisch haben Seite-Verwalter Monate oder sogar Jahre ausgegeben, eine Website optimierend, um Suchrangordnungen zu vergrößern. Mit dem Wachstum in der Beliebtheit von sozialen Mediaseiten und blogs haben die Hauptmotoren Änderungen mit ihren Algorithmen vorgenommen, um frischem Inhalt zu erlauben, sich schnell innerhalb der Suchergebnisse aufzureihen.

Im Februar 2011 hat Google die "Panda-Aktualisierung bekannt gegeben, die Websites bestraft, die Inhalt enthalten, der von anderen Websites und Quellen kopiert ist. Historisch haben Websites Inhalt von einander kopiert und in Suchmotorrangordnungen durch das Engagieren mit dieser Praxis Vorteil gehabt, jedoch hat Google ein neues System durchgeführt, das Seiten bestraft, deren Inhalt nicht einzigartig ist.

Beziehung mit Suchmotoren

Vor 1997 suchen Sie Motoren haben anerkannt, dass Webmaster Anstrengungen machten, sich gut in ihren Suchmotoren aufzureihen, und dass einige Webmaster sogar ihre Rangordnungen in Suchergebnissen manipulierten, indem sie Seiten mit übermäßigen oder irrelevanten Schlüsselwörtern voll gestopft haben. Suchen Sie früh Motoren, wie Altavista und Infoseek, hat ihre Algorithmen angepasst, um Webmaster davon abzuhalten, Rangordnungen zu manipulieren.

Wegen des hohen Marktwerts von ins Visier genommenen Suchergebnissen gibt es Potenzial für eine adversarial Beziehung zwischen Suchmotoren und SEO Dienstleistern. 2005 wurde eine jährliche Konferenz, AIRWeb, Adversarial Informationsgewinnung im Web, geschaffen, um die zerstörenden Effekten von aggressiven Webinhalt-Versorgern zu besprechen und zu minimieren.

Gesellschaften, die allzu aggressive Techniken verwenden, können ihren Kundenwebsites von den Suchergebnissen abhalten lassen. 2005 hat das Wall Street Journal über eine Gesellschaft, Verkehrsmacht berichtet, die angeblich risikoreiche Techniken verwendet hat und gescheitert hat, jene Gefahren seinen Kunden bekannt zu geben. Verdrahtete Zeitschrift hat berichtet, dass dieselbe Gesellschaft blogger und SEO Aaron Wall verklagt hat, um über das Verbot zu schreiben. Matt Cutts von Google hat später bestätigt, dass Google wirklich tatsächlich Verkehrsmacht und einige seiner Kunden verboten hat.

Einige Suchmotoren haben auch die SEO Industrie hinausgereicht, und sind häufige Förderer und Gäste auf SEO Konferenzen, Chats und Seminaren. Hauptsuchmotoren geben Auskunft und Richtlinien, um mit der Seite-Optimierung zu helfen. Google hat ein Programm von Sitemaps, um Webmastern zu helfen, zu erfahren, ob Google irgendwelche Probleme hat, ihre Website mit einem Inhaltsverzeichnis versehend, und auch Daten auf dem Verkehr von Google zur Website zur Verfügung stellt. Bing Toolbox stellt eine Weise von Webmastern zur Verfügung, einen sitemap und Webfutter vorzulegen, Benutzern erlaubend, die Kraul-Rate zu bestimmen, und wie viele Seiten durch ihren Suchmotor mit einem Inhaltsverzeichnis versehen worden sind.

Methoden

Mit einem Inhaltsverzeichnis versehen

zu werden

Die Hauptsuchmotoren, wie Google, Bing und Yahoo!, verwenden Sie Kettenfahrzeuge, um Seiten für ihre algorithmischen Suchergebnisse zu finden. Seiten, die von mit einem Inhaltsverzeichnis versehenen Seiten des Motors anderer Suche verbunden werden, brauchen nicht vorgelegt zu werden, weil sie automatisch gefunden werden. Einige Suchmotoren, namentlich Yahoo!, operieren Sie einen bezahlten Vorlage-Dienst, die das Kriechen entweder für eine Satz-Gebühr oder für Kosten pro Klick versichern. Solche Programme versichern gewöhnlich Einschließung in die Datenbank, aber versichern spezifische Rangordnung innerhalb der Suchergebnisse nicht. Zwei Hauptverzeichnisse, das Verzeichnis von Yahoo und das Offene Verzeichnisprojekt sowohl verlangen manuelle Vorlage als auch menschliche Herausgeberrezension. Google bietet Google Webmaster-Werkzeuge an, für die ein XML Sitemap Futter geschaffen und umsonst vorgelegt werden kann, um sicherzustellen, dass alle Seiten, besonders Seiten gefunden werden, die durch automatisch im Anschluss an Verbindungen nicht feststellbar sind.

Suchen Sie Motorkettenfahrzeuge können auf mehrere verschiedene Faktoren schauen, wenn sie eine Seite kriechen. Nicht jede Seite wird durch die Suchmotoren mit einem Inhaltsverzeichnis versehen. Die Entfernung von Seiten aus dem Wurzelverzeichnis einer Seite kann auch ein Faktor darin sein, ob Seiten gekrochen werden.

Das Verhindern des Kriechens

Um unerwünschten Inhalt in den Suchindizes zu vermeiden, können Webmaster Spinnen beauftragen, bestimmte Dateien oder Verzeichnisse durch den Standard robots.txt Datei im Wurzelverzeichnis des Gebiets nicht zu kriechen. Zusätzlich kann eine Seite von einer Suchmotordatenbank durch das Verwenden eines meta zu Robotern spezifischen Anhängsels ausführlich ausgeschlossen werden. Wenn ein Suchmotor eine Seite besucht, robots.txt gelegen im Wurzelverzeichnis ist die erste Datei, ist gekrochen. robots.txt wird Datei dann grammatisch analysiert, und wird den Roboter anweisen, betreffs dessen Seiten nicht gekrochen werden sollen. Da ein Suchmotorkettenfahrzeug eine versteckte Kopie dieser Datei behalten kann, kann es bei Gelegenheit Seiten kriechen, die ein Webmaster nicht wünscht, ist gekrochen. Seiten, die normalerweise gehindert sind, gekrochen zu werden, schließen Anmeldung spezifische Seiten wie Einkaufswagen und benutzerspezifischer Inhalt wie Suchergebnisse von inneren Suchen ein. Im März 2007 hat Google Webmaster gewarnt, dass sie verhindern sollten, innerer Suchergebnisse mit einem Inhaltsverzeichnis zu versehen, weil jene Seiten als Suche spam betrachtet werden.

Erhöhung der Bekanntheit

Eine Vielfalt von Methoden kann die Bekanntheit eines webpage innerhalb der Suchergebnisse vergrößern. Kreuz, das sich zwischen Seiten derselben Website verbindet, um mehr Verbindungen zu den meisten wichtigen Seiten zur Verfügung zu stellen, kann seine Sichtbarkeit verbessern.

Das Schreiben des Inhalts, der oft gesuchten Schlüsselwort-Ausdruck einschließt, um für ein großes Angebot an Suchabfragen wichtig zu sein, wird dazu neigen, Verkehr zu vergrößern. Das Aktualisieren des Inhalts, um Suchmotoren zurückzuhalten, die oft kriechen, kann zusätzliches Gewicht einer Seite geben. Das Hinzufügen relevanter Schlüsselwörter zu meta Daten einer Webseite, einschließlich des Titelanhängsels und meta Beschreibung, wird dazu neigen, die Relevanz Suchauflistungen einer Seite zu verbessern, so Verkehr vergrößernd. Die URL-ADRESSE-Normalisierung von über vielfache URL-Adressen zugänglichen Webseiten, mit dem "kanonischen" meta Anhängsel oder über 301 adressiert um kann helfen, sich Verbindungen zu verschiedenen Versionen der URL-Adresse die ganze Zählung zur Verbindungsbeliebtheitskerbe der Seite zu überzeugen.

Bildsuchoptimierung

Bildsuchoptimierung ist der Prozess, den Inhalt eines webpage zu organisieren, um Relevanz zu einem spezifischen Schlüsselwort auf Bildsuchmotoren zu vergrößern. Wie Suchmotoroptimierung ist das Ziel, eine höhere organische Suchauflistung und so Erhöhung des Volumens des Verkehrs von Suchmotoren zu erreichen.

Bildsuchoptimierungstechniken können als eine Teilmenge von Suchmotoroptimierungstechniken angesehen werden, die sich darauf konzentriert zu gewinnen, suchen hohe Reihen auf dem Image Motorergebnisse.

Verschieden vom normalen SEO-Prozess gibt es nicht viel, um für ISO zu tun. Das Bilden hoher Qualitätsimages, die zugänglich sind, um Motoren zu suchen, und die Versorgung einer Beschreibung über Images sind fast alles, was für ISO getan werden kann.

Weißer Hut gegen den schwarzen Hut

SEO Techniken können in zwei breite Kategorien eingeteilt werden: Techniken, die Motoren suchen, empfehlen als ein Teil des guten Designs, und dessen jene Techniken Motoren suchen, genehmigen nicht. Die Suchmotoren versuchen, die Wirkung der Letzteren, unter ihnen spamdexing zu minimieren. Industriekommentatoren haben diese Methoden und die Praktiker klassifiziert, die sie, entweder als der weiße Hut SEO oder als schwarzer Hut SEO verwenden. Weiße Hüte neigen dazu, Ergebnisse zu erzeugen, die eine lange Zeit dauern, wohingegen schwarze Hüte voraussehen, dass ihre Seiten schließlich entweder provisorisch oder dauerhaft verboten werden können, sobald die Suchmotoren entdecken, was sie tun.

Eine SEO Technik wird als weißer Hut betrachtet, wenn es sich den Suchmotorrichtlinien anpasst und keinen Betrug einschließt. Da die Suchmotorrichtlinien als eine Reihe von Regeln oder Geboten nicht geschrieben werden, ist das eine wichtige Unterscheidung, um zu bemerken. Weißer Hut ist SEO nicht nur über folgende Richtlinien, aber ist über das Sicherstellen, dass der Inhalt, ist ein Suchmotor, den Indizes und nachher aufreihen, derselbe Inhalt ein Benutzer, sehen wird. Weißer Hut-Rat wird allgemein als das Schaffen des Inhalts für Benutzer summiert, nicht für Suchmotoren und dann das Bilden dieses für die Spinnen leicht zugänglichen Inhalts, anstatt zu versuchen, den Algorithmus von seinem beabsichtigten Zweck zu beschwindeln. Weißer Hut-SEO ist auf viele Weisen, die der Webentwicklung ähnlich sind, die Zugänglichkeit fördert, obwohl die zwei nicht identisch sind.

Schwarzer Hut-SEO versucht, Rangordnungen auf Weisen zu verbessern, die durch die Suchmotoren missbilligt werden, oder Betrug einschließen. Eine schwarze Hut-Technik verwendet Text, der verborgen wird, entweder weil sich Text ähnlich dem Hintergrund in einem unsichtbaren div gefärbt hat, oder vom Schirm eingestellt hat. Eine andere Methode gibt eine verschiedene Seite je nachdem, ob die Seite von einem menschlichen Besucher oder einem Suchmotor, eine als das Bemänteln bekannte Technik gebeten wird.

Suchen Sie Motoren können Seiten bestrafen sie entdecken verwendende schwarze Hut-Methoden, entweder indem sie ihre Rangordnungen reduzieren oder ihre Auflistungen von ihren Datenbanken zusammen beseitigen. Solche Strafen können entweder automatisch durch die Suchmotoralgorithmen, oder durch eine manuelle Seite-Rezension angewandt werden. Ein Beispiel war der Februar 2006 Google Eliminierung sowohl des BMW Deutschland als auch des Ricoh Deutschlands für den Gebrauch von irreführenden Methoden. Beide Gesellschaften haben sich jedoch schnell entschuldigt, haben die verstoßenden Seiten befestigt, und wurden zur Liste von Google wieder hergestellt.

Als eine Marketingstrategie

SEO ist nicht eine passende Strategie für jede Website, und andere Internetmarketingstrategien können abhängig von den Seite-Maschinenbediener-Absichten wirksamer sein. Eine erfolgreiche Internetmarktkampagne kann auch von Gebäude hoher Qualitätswebseiten abhängen, um zu verpflichten und, Aufstellungsanalytik-Programme zu überzeugen, um Seite-Eigentümern zu ermöglichen, Ergebnisse und Besserung eines Kurses einer Seite zu messen.

SEO kann eine entsprechende Rückkehr auf der Investition erzeugen. Suchen Sie jedoch Motoren werden für den organischen Suchverkehr, ihre Algorithmus-Änderung nicht bezahlt, und es gibt keine Garantien von fortlaufendem referrals. Wegen dieses Mangels an Garantien und Gewissheit kann ein Geschäft, das sich schwer auf den Suchmotorverkehr verlässt, Hauptverluste ertragen, wenn die Suchmotoren aufhören, Besucher zu senden. Suchen Sie Motoren können ihre Algorithmen ändern, ein Stellen einer Website zusammenpressend, vielleicht auf einen ernsten Verlust des Verkehrs hinauslaufend. Gemäß dem CEO von Google, Erick Schmidt, 2010, hat Google mehr als 500 Algorithmus-Änderungen - fast 1.5 pro Tag vorgenommen. Es wird als kluge Geschäftspraxis für Website-Maschinenbediener betrachtet, um sich von der Abhängigkeit vom Suchmotorverkehr zu befreien. Seomoz.org hat darauf hingewiesen, dass "Suche marketers, in einer Drehung der Ironie, einen sehr kleinen Anteil ihres Verkehrs von Suchmotoren erhalten." Statt dessen sind ihre Hauptquellen des Verkehrs Verbindungen von anderen Websites.

Internationale Märkte

Optimierungstechniken werden auf die dominierenden Suchmotoren auf dem Zielmarkt hoch abgestimmt.

Die Suchmotormarktanteile ändern sich vom Markt bis Markt, wie Konkurrenz tut.

2003 hat Danny Sullivan festgestellt, dass Google ungefähr 75 % aller Suchen vertreten hat. Auf Märkten außerhalb der Vereinigten Staaten ist der Anteil von Google häufig größer, und Google bleibt der dominierende Suchmotor weltweit bezüglich 2007. Bezüglich 2006 hatte Google einen 85-90-%-Marktanteil in Deutschland. Während es Hunderte von SEO Unternehmen in den Vereinigten Staaten damals gab, gab es nur ungefähr fünf in Deutschland. Bezüglich des Junis 2008 ist der marketshare von Google im Vereinigten Königreich 90 % gemäß Hitwise nah gewesen. Dieser Marktanteil wird in mehreren Ländern erreicht.

Bezüglich 2009 gibt es nur einige große Märkte, wo Google nicht der Hauptsuchmotor ist. In den meisten Fällen, wenn Google auf einem gegebenen Markt nicht führt, bleibt er hinter einem lokalen Spieler zurück. Die bemerkenswertesten Märkte, wo das der Fall ist, sind China, Japan, Südkorea, Russland und Tschechien wo beziehungsweise Baidu, Yahoo! Japan, Naver, Yandex und Seznam sind Markführer.

Die erfolgreiche Suchoptimierung für internationale Märkte kann berufliche Übersetzung von Webseiten, Registrierung eines Domainnamens mit einem Spitzenniveau-Gebiet auf dem Zielmarkt und Web verlangen, das veranstaltet, der eine lokale IP-Adresse zur Verfügung stellt. Sonst sind die grundsätzlichen Elemente der Suchoptimierung im Wesentlichen dasselbe unabhängig von der Sprache.

Gesetzliche Präzedenzfälle

Am 17. Oktober 2002 hat SearchKing im USA-Landgericht, Westbezirk Oklahomas, gegen den Suchmotor Google Klage erhoben. Der Anspruch von SearchKing bestand darin, dass die Taktik von Google, um spamdexing zu verhindern, eine tortious Einmischung mit vertraglichen Beziehungen eingesetzt hat. Am 27. Mai 2003 hat das Gericht der Bewegung von Google gewährt, die Beschwerde abzuweisen, weil SearchKing "gescheitert hat, einen Anspruch festzusetzen, laut dessen Erleichterung gewährt werden kann."

Im März 2006 hat KinderStart eine Klage gegen Google über Suchmotorrangordnungen eingereicht. Die Website von Kinderstart wurde vom Index von Google vor der Rechtssache und dem Betrag des Verkehrs zur durch 70 % fallen gelassenen Seite entfernt. Am 16. März 2007 hat das USA-Landgericht für den Nördlichen Bezirk Kaliforniens (San Jose Abteilung) die Beschwerde von KinderStart ohne Erlaubnis abgewiesen, um sich zu bessern, und hat teilweise die Bewegung von Google für Sanktionen der Regel 11 gegen den Rechtsanwalt von KinderStart gewährt, er verlangend, einen Teil der gesetzlichen Ausgaben von Google zu bezahlen.

Siehe auch

  • Liste von Suchmotoren
  • Suchen Sie Motormarketing
  • Suchen Sie Motoroptimierung copywriting
  • Antragsteller von Trackback
  • Website-Promotion

Zeichen

Außenverbindungen

  • - Technischer Tutorenkurs auf der Suchmotoroptimierung, die an der Google Eingabe/Ausgabe 2010 gegeben ist.

Klima Missouris / Lira
Impressum & Datenschutz