Wie Matt Cutts, Chef des Web-Spam-Teams bei Google vergangene Woche in einem Blog erklärte, arbeitet Google daran, Spam einzudämmen. Bei den Spam-Maßnahmen, scheint es aber auch einen kleinen Nebeneffekt zu geben.
Seit vergangener Woche, so Cutts in einem neuen Beitrag, arbeitet ein neuer Algorithmus für die Google-Suche und der unterscheidet offenbar besser zwischen Seiten, die Texte liefern und denen, die sie einfach kopieren.
“Das war ein ziemlich begrenztes Update: Knapp über 2 Prozent aller Suchen ändern sich dadurch, aber nur ein halbes Prozent der Nutzer wird überhaupt einen Unterschied bemerken”, so Cutts in seinem Beitrag. “Der Endeffekt ist der, dass Suchende eher auf die Seiten stoßen, die den Original-Content eingestellt haben als diejenigen, die diese Texte geklaut oder kopiert haben.”
Der Prozentsatz mag gering erscheinen, jedoch greifen Millionen Menschen auf Google zu. Die Änderungen dürften also dennoch zahlreiche Personen betreffen.
Zudem lässt Cutts Eintrag zahlreiche Fragen offen. Was passiert mit all den Blogs, die eine Textvorlage auf ihre Seite stellen und diese kommentieren. Was ist mit Seiten, die völlig legal einen Text mehrfach verwerten? Zudem hält Google den Algorithmus geheim. Für die Betreiber von Seiten ist es also kaum nachvollziehbar, wie Google die Unterscheidungen trifft.
Meist steht die Sicherheit von Infrastruktur und Cloud im Fokus. Auch Anwendungen sollten höchsten Sicherheitsanforderungen…
Das finnische Facility-Service-Unternehmen ISS Palvelut hat eine umfassende Transformation seiner Betriebsabläufe und IT-Systeme eingeleitet.
PDFs werden zunehmend zum trojanischen Pferd für Hacker und sind das ideale Vehikel für Cyber-Kriminelle,…
Laut Teamviewer-Report „The AI Opportunity in Manufacturing“ erwarten Führungskräfte den größten Produktivitätsboom seit einem Jahrhundert.
Microsoft erobert zunehmend den Markt für Cybersicherheit und setzt damit kleinere Wettbewerber unter Druck, sagt…
Nur 14 Prozent der Führungskräfte in der IT sind weiblich. Warum das so ist und…