Technische Möglichkeiten über automatische Suchroboter (sogenannte ‘Bots’) wie das Crawling, Spidering oder Screen Scraping machen es sehr einfach, zahlreiche Daten aus dem Internet zu durchsuchen, zu speichern und dann für eigene Zwecke zu systematisieren beziehungsweise Dritten in neu zusammengestellter Form zur Verfügung zu stellen. Der Kampf um das Recht, entsprechende Daten auszuwerten beziehungsweise zu verwerten, hat gerade erst begonnen.
1. Google will systematische Auswertung der Suchergebnisse verbieten
Jetzt kommt mir die „glückliche“ Fügung zugute, dass Google selbst – aktuellen Berichten zufolge – nun gewisse technische Auswertungsmöglichkeiten der entsprechenden Suchergebnisse verbieten will. Der Fall zeigt die steigende Relevanz des Themas…
Seit vielen Jahren durchsuchen und laden verschiedene Anbieter von Suchmaschinenoptimierungswerkzeugen mit eigenen Suchrobotern (so genannten Crawlern) die Google Suchergebnisse herunter und analysieren diese Daten (teilweise auch als Scraped Data bezeichnet). Hieraus werden eigene Erkenntnisse gezogen beziehungsweise auch über entsprechende SEO-Tools Kunden spezifische Auswertungsdaten verkauft (wie z.B. bei Raven in den USA, aber auch bei Sistrix oder Searchmetrics in Deutschland).
In entsprechenden Kreisen wird das aggressiver werdende Verhalten von Google teilweise schon das Ende solcher SEO-Werkzeuge befürchtet. Tatsächlich heißt es in den Nutzungsbedingungen von Google:
“YOU SPECIFICALLY AGREE NOT TO ACCESS (OR ATTEMPT TO ACCESS) ANY OF THE SERVICES THROUGH ANY AUTOMATED MEANS (INCLUDING USE OF SCRIPTS OR WEB CRAWLERS) AND SHALL ENSURE THAT YOU COMPLY WITH THE INSTRUCTIONS SET OUT IN ANY ROBOTS.TXT FILE PRESENT ON THE SERVICES.”
Doch stellt sich aus rechtlicher Sicht die Frage, ob Google mit solchen Nutzungsbedingungen tatsächlich die Verwertung öffentlich zur Verfügung gestellter Informationen einfach verbieten kann beziehungsweise auf welcher Rechtsgrundlage und wie weitgehend Google hier Verbote aussprechen darf.
Der nachfolgende Beitrag setzt sich mit entsprechenden grundlegenden rechtlichen Fragen auseinander, die in Zeiten von Big Data weiter an Bedeutung gewinnen werden. Denn: Daten bedeuten in unserer Informationsgesellschaft Macht und die Hoheit über Big Data bedeutet mehr Macht…
2. Rechtliche Grundlagen des “Eigentums” an Daten
Zunächst ist festzustellen, dass “Eigentum” an Informationen aus juristischer Sicht nicht begründet werden kann und der Begriff insoweit eigentlich nicht passt. Dennoch können Informationen oder Daten unter verschiedenen gesetzlichen Voraussetzungen vor dem Zugriff beziehungsweise der Verwertung durch Dritte geschützt sein.
a) Verbot in den Nutzungsbedingungen
Zahlreiche Internetportale verbieten in ihren Nutzungsbedingungen den Einsatz entsprechender Suchroboter (Webcrawler) beziehungsweise das systematische Durchsuchen und Auswerten der zur Verfügung gestellten Daten.
Tatsächlich haben Betreiber entsprechender Webportale auf Grundlage des virtuellen Hausrechts die Berechtigung entsprechende Vorgaben für die Nutzung der Plattform zu machen. Rechtlich verbindlich wird die jeweilige Regelung aber nur, wenn sich der jeweilige “Scraper” auch unter Anerkennung der Nutzungsbedingungen registriert hat.
Ist der Zugang also ansonsten nicht beschränkt oder auch ohne Anmeldung möglich (wie etwa bei Google) kommt den jeweiligen Nutzungsbedingungen ebenso wie allen weiteren einseitigen Erklärungen über von ihr gewollte Nutzungsbeschränkungen keine verbindliche Rechtswirkung für nicht registrierte Besucher der Webseite zu (vgl. Urteil des OLG Frankfurt vom 05.03.2009; Az. 6 U 221/09).
Nutzungsbedingungen nützen beziehungsweise schaden also nicht unbedingt…
b) Urheberrechtliche Grenzen der Verwertung von Big Data
In Deutschland sind ansonsten vor allem das Urheberrecht und das ebenfalls im Urheberrechtsgesetz (UrhG) zu verortende Datenbankrecht relevant.
Urheberrechtlicher Schutz wird gemäß § 2 UrhG nur angenommen, wenn ein entsprechendes schutzfähiges Werk vorliegt. Häufig wird es sich bei Big Data um Texte oder –Fragmente handeln, die aber eben nur geschützt sind, wenn die notwendige Schöpfungshöhe erreicht wird. Das wird gerade bei einzelnen Fragmenten oder Datenreihen in aller Regel nicht angenommen werden können und hilft insoweit in vielen Fällen nicht weiter.
c) Datenbankrechtliche Grenzen der Verwertung von Big Data
Zentral wird es insofern darauf ankommen, ob durch den Zugriff auf fremde Datenbestände in unzulässiger Weise in das Datenbankrecht nach § 87 a ff. UrhG eingegriffen worden ist. Nach § 87b UrhG hat der Hersteller einer Datenbank das ausschließliche Recht, die Datenbank insgesamt oder einen nach Art oder Umfang wesentlichen Teil der Datenbank zu vervielfältigen, zu verbreiten und öffentlich wiederzugeben.
Zunächst ist also zu prüfen, ob überhaupt eine geschützte Datenbank im Sinne von § 87 a UrhG vorliegt. Erforderlich hierfür ist eine Datensammlung, die systematisch und methodisch angeordnet und mit einzelner Hilfe elektronischer Mittel zugänglich gemacht wird und für deren Beschaffung, Darstellung oder Überprüfung der Daten eine wesentliche Investition erforderlich gewesen ist.
Sollte die entsprechenden Voraussetzungen vorliegen, ist es ohne Zustimmung des Datenbankherstellers verboten, einen nach Art und Umfang wesentlichen Teil der Daten zu vervielfältigen, zu verbreiten oder öffentlich wiederzugeben. Artikel 7 Absatz 1 der Europäischen Datenbankrichtlinie besagt, dass “wesentlicher Teil” in qualitativer oder in quantitativer Hinsicht verstanden werden kann. Nur dann, wenn ein entsprechend wesentlicher Teil “entnommen” wird, ist von einem unzulässigen Eingriff in das Datenbankrecht des Inhabers auszugehen. Interessanterweise hat der Bundesgerichtshof in seiner Entscheidung “Zweite Zahnarztmeinung II” (BGH, Urteil v. 01.12.2010, Az. I ZR 196/08) einen Anteil von unter 1/10 nicht als wesentlich angesehen. Auch in seiner Entscheidung “Automobil-Onlinebörse” (BGH, Urteil vom 22.06.2011, Az. I ZR 159/10) hat der Bundesgerichtshof einen rechtswidrigen Eingriff abgelehnt, weil in dem entscheidenden Fall immer nur einzelne Abfragen zu dem jeweils konkreten Suchauftrag gemacht wurden, und damit weder die gesamte Datenbank als ganze kopiert, noch “wesentliche Teile” davon betroffen waren.
Die obenstehenden Ausführungen zeigen bereits, dass das Thema eine gewisse Komplexität hat. Bei der Entnahme weniger Daten im Verhältnis zur Gesamtdatenbank, ist durchaus denkbar, dass der Datenbankhersteller rechtlich nicht einschreiten kann.
3. Bewertung des Verbots von Google
Nach deutschem beziehungsweise europäischem Recht dürfte eine rechtliche Durchsetzung des oben skizzierten Verbots durch Google nicht ganz so einfach sein, wie teilweise vermutet wird. Faktisch wird Google sich als in den USA “sitzender” Datenbankinhaber aber aller Voraussicht auch berechtigterweise auf US-amerikanisches Recht berufen. Für eine entsprechende rechtliche Bewertung gibt es sachkundigere Kollegen als einen deutschen Rechtsanwalt, weshalb ich hier keine konkreten Aussagen treffen kann.
Wenn Google allerdings seine hier vermutete Ankündigung wahr macht, bei Nichtbefolgung des Scraping-Verbots auch den Zugang zur Google Adwords Schnittstelle (API) zu verweigern, sehe ich angesichts der Marktmacht von Google gewisse kartellrechtliche Bedenken.
Nachdem die rechtlichen Fragen nach deutschem Recht nicht so eindeutig sind, bleibt es spannend, die weitere Entwicklung zu beobachten.
Interessant ist das avisierte Verbot seitens Google auch im Hinblick auf die aktuelle Diskussion um das Leistungsschutzrecht, gegen das Google ja opponiert, weil man mit den eigene Services ja nur auf den Angeboten der Verlage “aufsetze” und eigentlich durch die Verlinkung sogar eher unterstütze. Es stellt sich die Frage, ob dies bei den SEO-Tools, die die öffentlich zugänglichen Suchmaschinenergebnisse nur auswerten und zusätzliche Services anbieten nicht zumindest ähnlich ist …
4. Resumee
Big Data bietet zahlreiche neue Möglichkeiten. Vielerorts wird prognostiziert, dass entsprechenden Aggregatoren die unterschiedliche Arten von (Medien-)inhalten und Informationen sammeln und diese bestimmten Zielgruppen in aufbereiteter Form zusammenstellen, ein Stück der Zukunft im Internet gehört. Google selbst macht vor, was auch wirtschaftlich in diesem Bereich möglich ist.
Da Informationen aller Art im Internet die entscheidenden Wirtschaftsgüter sind, wird solcherlei Verarbeitung von Daten und vor allen deren Veredlung auch weiter an Bedeutung gewinnen. Bereits heute sieht man, dass Aggregatoren in vielen Bereichen als Gatekeeper fungieren, von deren (Nicht-)Vermittlung – wie z.B. Google, Reiseportale oder Preisvergleichsseiten – bereits heute schon einiges abhängt.
Die obenstehenden Ausführungen zeigen, dass es hierfür rechtliche Rahmenbedingungen gibt. Auch in diesem Bereich ist allerdings noch einiges in Entwicklung.
Nachdem wir bereits einige Geschäftsmodelle in diesem Bereich prüfen durften, sind wir gespannt, wie sich die rechtlichen Fragen um das “Eigentum” an Daten weiter entwickeln. Die oben stehenden Ausführungen zeigen, dass sich mit ausgeklügelten Modellen auch rechtskonforme Ansätze herausarbeiten lassen.
Neben den datenschutzrechtlichen Aspekten aus dem vorangegangenen Beitrag zum Thema “Big Data & Recht”, die bei der Verwendung personenbezogener Daten berücksichtigt werden sollten, kommt es bei im Internet veröffentlichten Daten eben auch stark auf die obenstehenden Grundsätze an. Zusätzlich wird man bei der Verwendung beziehungsweise Integration von Daten aus offenen Schnittstellen (z.B. der Facebook API) auch einen Blick auf die jeweiligen Regeln den Plattform (z.B. Richtlinien für die Facebook Plattform) haben müssen, auch um faktisch nicht ausgeschlossen zu werden.
Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…
Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…
Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…
KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.
Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.