Rund 300 Besucher zählte der Veranstalter der ‘Search Engine Strategies 2005’ neulich in München, was den Event bei den viel reisenden Experten “gemütlich” erscheinen ließ. In den USA kommen zu solchen Tagungen mehrere tausend. Ihr Ziel hüben wie drüben: Mehr zu erfahren darüber, wie sie mit den eigenen Webseiten von Suchmaschinen besser gefunden werden.
Der anwesenden Kundschaft jedenfalls vermittelte die ‘Google University’ oder auch die ‘Website-Klinik’, dass sie jede Menge tun kann und muss, um die Struktur, die Wortwahl und das Design ihres Web-Auftritts für das Ranking in Suchmaschinen zu verbessern. Erste Hilfe können übrigens auch frei verfügbare Tools wie ‘seekbot’ oder ‘Xenu’ liefern, von denen es mittlerweile eine ganze Reihe gibt. Sie schauen in der Regel nach Barrieren und defekten Links, die den Suchmaschinen das Auffinden einer Site erschweren.
Um Hindernisse zu vermeiden, gibt es eigentlich eine recht einfache Regel. Suchmaschinen-freundliche Seiten sind auch benutzerfreundlich und barrierefrei. Warum das so ist, erläutert Stefan Karzauninkat, Director Quality Management Europe bei der Seekport Internet Technologies GmbH: “Benutzen Sie einen Browser, wie er 1995 gestaltet war, und Sie sehen die Web-Seiten so, wie sie sich den Robots darstellen.”
Mit drei Klicks zur richtigen Seite
Suchmaschinen sind Datensammler, die lediglich die Hypertext Markup Language (HTML) verstehen und Zeichenketten interpretieren. Sie können weder Multimediadateien wie Bilder oder hinreichend Flashs auswerten noch Bedeutungen erkennen. Sie folgen Links. Je weiter weg eine Information in stark verschachtelten beziehungsweise tiefen Hierarchien angesiedelt ist, desto schwieriger ist sie nicht nur für menschliche Sucher, sondern auch für die Suchmaschinen zu finden. Deshalb empfehlen sich flache Hierarchien. “Mit drei Klicks beziehungsweise Suchmaschinen-Hobs sollte die richtige Seite gefunden sein”, sagt Karzauninkat.
Mit Hilfe von so genannten ‘Deep Links’ können Suchende direkt auf eine nachgeordnete Seite springen. Bei großen Seiten empfehlen sich Mini-, Meta- oder Teil-Verzeichnisse und moderate inhaltliche Cross-Links. Verboten sind Linkfarmen. Die könnten von den Suchmaschinen-Betreibern als Spam interpretiert werden. Die URLs der nachgeordneten Seiten sollten einem einheitlichen Muster entsprechen und keinen rätselhaften Zauberformeln gleichen.
Frames behindern die Interpretierbarkeit, denn Inhalte stehen in getrennten Dokumenten und werden unter Umständen deshalb getrennt präsentiert. Vermutlich wird ihre Anzahl ohnehin noch in diesem Jahr erheblich dezimiert. Behörden sind nämlich inzwischen zur “Barrierefreiheit” verpflichtet. Somit werden auch dynamische Seiten und Java-Scripts mehr und mehr verschwinden. Denn hier folgen die meisten Roboter den Links nicht.
Das heißt nicht, dass sämtliche Bilder oder auch Firmenlogos verschwinden müssen. Doch sollten Bilder beschrieben sein und das Corporate Design ergänzenden Text erhalten. Sonst findet sich im Listing der Suchmaschine statt einer Werbebotschaft unter Umständen nur der Hinweis der Einstiegsseite: “Dieser Internetauftritt ist optimiert für den Internet Explorer 6.0 und eine Bildschirmauflösung von 1024×768 Bildpunkten.”
Text muss nicht schön sein, sondern auffindbar
Das Portal muenchen.de ist von Kronenberg nach diesen Regeln verbessert worden. “Wir haben jetzt gut lesbare Seiten und URLs”, sagt der Verantwortliche. Die “Keyword-Analyse” dagegen hält er zumindest für seine Seiten vernachlässigbar oder nur als Tüpfelchen auf dem i. Zum einen sorge guter Inhalt für eine gute Platzierung in den Suchmaschinen, zum anderen gebe es hier die dominierenden Schlüsselwörter einfach nicht.
Dagegen spielt die Bestimmung von optimalen Schlüsselwörtern für Eduard Heindl eine große Rolle, etwa im Zusammenhang mit Suchmaschinen-gestützten Werbekampagnen, wie etwa Google Adwords. Die Auswahl neuer Schlüsselbegriffe setzt die Analyse vorhergehender Kampagnen voraus unter der Voraussetzung, dass zwar viele Wörter benutzt werden, aber nur wenige lohnend sind. Darin einbezogen werden die Klickraten und die Kosten pro Klick (Cost per Click = CPC). Daraus errechnen sich die Kosten. Der Wert einer Kampagne hingegen entsteht durch den Wert des Kunden (value per customer). Außerdem ist von Bedeutung, wie wertvoll die Umwandlung (conversion) von Clicks in ein Geschäft ist.
Page: 1 2
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…