Wie Matt Cutts, Chef des Web-Spam-Teams bei Google vergangene Woche in einem Blog erklärte, arbeitet Google daran, Spam einzudämmen. Bei den Spam-Maßnahmen, scheint es aber auch einen kleinen Nebeneffekt zu geben.
Seit vergangener Woche, so Cutts in einem neuen Beitrag, arbeitet ein neuer Algorithmus für die Google-Suche und der unterscheidet offenbar besser zwischen Seiten, die Texte liefern und denen, die sie einfach kopieren.
“Das war ein ziemlich begrenztes Update: Knapp über 2 Prozent aller Suchen ändern sich dadurch, aber nur ein halbes Prozent der Nutzer wird überhaupt einen Unterschied bemerken”, so Cutts in seinem Beitrag. “Der Endeffekt ist der, dass Suchende eher auf die Seiten stoßen, die den Original-Content eingestellt haben als diejenigen, die diese Texte geklaut oder kopiert haben.”
Der Prozentsatz mag gering erscheinen, jedoch greifen Millionen Menschen auf Google zu. Die Änderungen dürften also dennoch zahlreiche Personen betreffen.
Zudem lässt Cutts Eintrag zahlreiche Fragen offen. Was passiert mit all den Blogs, die eine Textvorlage auf ihre Seite stellen und diese kommentieren. Was ist mit Seiten, die völlig legal einen Text mehrfach verwerten? Zudem hält Google den Algorithmus geheim. Für die Betreiber von Seiten ist es also kaum nachvollziehbar, wie Google die Unterscheidungen trifft.
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…
KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.
Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.
Neue Kunden sind unter anderem SAP, Conforama Schweiz, 11teamsports, Phillip Morris International, Baywa und Thalia.
Oracle schafft einheitliche Plattform für vier Ministerien und über 250.000 Beamte mit der Oracle Applications…
Der Grund: Geräte, die mit veralteter Software arbeiten, sind anfällig für Cyberangriffe und Datenlecks.