ChatGPT: Italien verbietet generative KI-Modelle
Die Behörden unterstellen Verstöße gegen Datenschutzgesetze. Ihnen fehlt unter anderem eine Alterskontrolle für Minderjährige.
Die italienische Datenschutzbehörde hat dem ChatGPT-Entwickler OpenAI untersagt, die Daten von italienischen Nutzern zu verarbeiten. Das Verbot gilt ab sofort. Die Behörde sieht die Nutzung von Daten, die an generative KI-Modelle wie ChatGPT übergeben werden, für Trainingszwecke, als Verstoß gegen Datenschutzgesetze an.
In einer Pressemitteilung begründet die Behörde den Schritt unter anderem damit, dass ihrer Ansicht nach OpenAI keine Einwilligung von Nutzern einholt, deren Daten zu Trainingszwecken oder zur Verbesserung von KI-Diensten einzusetzen. Darüber hinaus reklamieren die Datenschützer, dass Dienste wie ChatGPT keine Alterskontrolle bieten, Kinder jedoch unter Umständen Inhalten ausgesetzt sind, die “absolut unangemessen für ihr Alter” sind.
Es droht Geldstrafe von bis zu 20 Millionen Euro
“Es scheint keine Rechtsgrundlage für die massenhafte Erhebung und Verarbeitung personenbezogener Daten zu geben, um die Algorithmen zu ‘trainieren’, auf die sich die Plattform stützt”, so die italienische Datenschutzbehörde weiter.
Der von OpenAI benannte Vertreter im Europäischen Wirtschaftsraum hat nun 20 Tage Zeit, um der Anordnung nachzukommen. Andernfalls droht dem KI-Forschungsunternehmen eine Geldstrafe von bis zu 20 Millionen Euro oder 4 Prozent des gesamten weltweiten Jahresumsatzes.
Die Entscheidung wurde nach einer Datenpanne am 20. März getroffen, bei der Unterhaltungen von ChatGPT-Nutzern und Informationen über Zahlungen von Abonnenten offengelegt wurden. Dieser Vorfall unterstrich die möglichen Risiken der Nutzung von KI-Werkzeugen, die sich eigentlich noch in einer Entwicklungsphase befinden und trotzdem schon der Öffentlichkeit zur Verfügung stehen.