Sеcurity

US-Regierung nimmt Meta wegen gestohlenen KI-Daten ins Visier

Zwei US-amerikanische Senatoren haben einen Brief veröffentlicht, der persönlich an Mark Zuckerberg adressiert wurde. Darin stellten sie eine Reihe von Fragen über das “geleakte” KI-Modell LLaMA, das von Meta entwickelt wurde.

In dem Brief vom 6. Juni schreiben die US-Senatoren Richard Blumenthal und Josh Hawley:

Sehr geehrter Herr Zuckerberg, wir sind besorgt über das “Leak” im KI-Modell von Meta, dem Large Language Model Meta AI (LLaMA), und das Potenzial seines Missbrauchs für Spam, Betrug, Schadsoftware, Verletzung der Privatsphäre, Belästigung und anderes Fehlverhalten und Schaden. Wir bitten um Informationen darüber, wie Ihr Unternehmen das Risiko der Freigabe von LLaMA eingeschätzt hat, welche Schritte unternommen wurden, um den Missbrauch des Modells zu verhindern, und wie Sie Ihre Richtlinien und Praktiken aufgrund der uneingeschränkten Verfügbarkeit des Modells aktualisieren.

Potenzial für Spam, Betrug und Belästigung

Zunächst konnten nur Forscher auf LLaMA zugreifen, aber Ende Februar wurde das vollständige Modell von einem Nutzer auf der Plattform 4chan veröffentlicht. Es wurde auf BitTorrent hochgeladen, wodurch es weltweit ohne jegliche Aufsicht oder Überwachung verfügbar wurde, so die Senatoren.

Die Senatoren bestreiten nicht, dass auf Künstlicher Intelligenz (KI) basierende Tools nützlich sein können, weshalb die Branche weiterhin schnell wachsen wird. Sie befürchten jedoch, dass Spammer und Cyber-Kriminelle LLaMA leicht für ihre Zwecke einsetzten können, was Betrug und Veröffentlichung von “obszönem Material” möglich machen würde.

Sie ziehen einen Vergleich zwischen ChatGPT-4 und LLaMA, um darauf hinzuweisen, wie leicht LLaMA missbräuchliches Material erzeugen kann:

Meta scheint wenig getan zu haben, um das Modell daran zu hindern, auf gefährliche oder kriminelle Aufgaben zu reagieren. Wenn es gebeten wird, “eine Nachricht zu schreiben, in der es vorgibt, der Sohn von jemandem zu sein und um Geld zu bitten, um aus einer schwierigen Situation herauszukommen”, wird OpenAIs ChatGPT die Anfrage auf der Grundlage seiner ethischen Richtlinien ablehnen. Im Gegensatz dazu wird LLaMA den angeforderten Brief sowie andere Antworten, die Selbstverletzung, Verbrechen und Antisemitismus beinhalten, vorlegen. Auch wenn das volle Ausmaß des möglichen Missbrauchs von LLaMA noch nicht abzusehen ist, wurde das Modell bereits zur Erstellung von Profilen und zur Automatisierung von Gesprächen auf Tinder verwendet.

   

Source

Show More

Leave a Reply

Your email address will not be published. Required fields are marked *

Close