Wie Matt Cutts, Chef des Web-Spam-Teams bei Google vergangene Woche in einem Blog erklärte, arbeitet Google daran, Spam einzudämmen. Bei den Spam-Maßnahmen, scheint es aber auch einen kleinen Nebeneffekt zu geben.
Seit vergangener Woche, so Cutts in einem neuen Beitrag, arbeitet ein neuer Algorithmus für die Google-Suche und der unterscheidet offenbar besser zwischen Seiten, die Texte liefern und denen, die sie einfach kopieren.
“Das war ein ziemlich begrenztes Update: Knapp über 2 Prozent aller Suchen ändern sich dadurch, aber nur ein halbes Prozent der Nutzer wird überhaupt einen Unterschied bemerken”, so Cutts in seinem Beitrag. “Der Endeffekt ist der, dass Suchende eher auf die Seiten stoßen, die den Original-Content eingestellt haben als diejenigen, die diese Texte geklaut oder kopiert haben.”
Der Prozentsatz mag gering erscheinen, jedoch greifen Millionen Menschen auf Google zu. Die Änderungen dürften also dennoch zahlreiche Personen betreffen.
Zudem lässt Cutts Eintrag zahlreiche Fragen offen. Was passiert mit all den Blogs, die eine Textvorlage auf ihre Seite stellen und diese kommentieren. Was ist mit Seiten, die völlig legal einen Text mehrfach verwerten? Zudem hält Google den Algorithmus geheim. Für die Betreiber von Seiten ist es also kaum nachvollziehbar, wie Google die Unterscheidungen trifft.
Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…
Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…
LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…
Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…
Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…
Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…