Schutz vor KI-Gefahren: MIT-Datenbank zeigt 700 mögliche Risiken auf

Schutz vor KI-Gefahren: MIT-Datenbank zeigt 700 mögliche Risiken auf

Denkt man kritisch über den Einsatz von künstlicher Intelligenz nach, kann man schon ein wenig Bauchschmerzen bekommen: angefangen bei nachgeplapperten Vorurteilen und Unwahrheiten bis hin zur Gefahr der Abhängigkeit von KI-Chatbots, ganz zu schweigen von der Möglichkeit, Anleitungen für biologische oder chemische Waffen zu bauen oder dem ultimativen Kontrollverlust über diese Systeme.

Klar ist: Diese potenziellen Risiken müssen wir in den Griff bekommen. Aber dazu müssen wir erst einmal wissen, was sie im Kern ausmachen. Die Gruppe FutureTech bestehend aus Wissenschaftler:innen des CSAIL-Labors am Massachusetts Institute of Technology (MIT) und weiteren externen Beteiligten hat deshalb eine Datenbank zusammengestellt und online veröffentlich. Die AI Risk Repository betitelte Liste dokumentiert über 700 mögliche Risiken, die fortschrittliche KI-Systeme darstellen könnten. Es ist die bisher umfassendste Quelle für Informationen über bereits identifizierte Probleme, die sich aus der Entwicklung und dem Einsatz dieser Modelle ergeben könnten.

KI-Risiken in einer Liste gesammelt

Um die aufgelisteten Risiken erstmal zu ermitteln, die es auf die Liste schafften, durchforstete das Team sowohl bereits durch Expert:innen geprüfte Fachartikel als auch Texte aus Preprint-Datenbanken, die KI-Risiken detailliert beschreiben. Die häufigsten Risiken betrafen die Sicherheit und Robustheit von KI-Systemen (76 Prozent), unfaire Voreingenommenheit und Diskriminierung (63 Prozent) und die Gefährdung der Privatsphäre (61 Prozent). Die weniger verbreiteten Risiken sind eher esoterischer Natur, wie z. B. das Risiko der Entwicklung von KI mit der Fähigkeit, Schmerz zu empfinden oder so etwas wie den „Tod“ zu erleben.

Was die Datenbank auch verdeutlicht: Die meisten Risiken von KI werden erst erkannt, nachdem ein Modell veröffentlicht wurde. Nur 10 Prozent der untersuchten Risiken wurden erkannt, bevor sie den Nutzer:innen zugänglich gemacht wurden. Neil Thompson, Direktor von MIT FutureTech und einer der Ersteller der Datenbank, sagt dazu: „Das zeigt, dass es eine ganze Reihe von Risiken gibt, die nicht alle im Voraus geprüft werden können.“ Daher sollten Prüfer:innen, politische Entscheidungsträger:innen und Wissenschaftler:innen in den Labors, laut Thompson, die Modelle nach ihrer Veröffentlichung überwachen, indem sie regelmäßig die Risiken überprüfen.

Der Gedanke, eine solche Risiken-Liste systematisch zu erstellen, ist nicht neu. Es gab bereits Versuche, aber sie umfassten in erster Linie eine begrenzte Anzahl potenzieller Schäden durch KI, so Thompson. Der stückweise vorgehende Ansatz habe es erschwert, einen umfassenden Überblick über die mit KI verbundenen Risiken zu bekommen.

KI-System weiterhin Black Box

Diese Datenbank ist zwar ein Anfang, aber welche KI-Risiken am meisten Anlass zur Sorge bereiten, wird weiterhin schwierig bleiben. Dazu kommt, dass hochmoderne KI-Systeme zum Teil Black Boxes sind, deren Vorgehen immer noch nicht gänzlich verständlich ist.

Die Initiatoren der Datenbank sind der Frage der Priorisierung ausgewichen und haben sich dafür entschieden, die Risiken nicht nach ihrem Gefährdungsgrad einzustufen.

„Was wir wirklich wollten, war eine neutrale und umfassende Datenbank, und mit neutral meine ich, dass wir alles so nehmen, wie es uns präsentiert wird, und dabei sehr transparent sind“, sagt der Hauptautor der Datenbank, Peter Slattery, ein Postdoktorand des MIT FutureTech.

Doch diese Taktik könnte den Nutzen der Datenbank einschränken, meint Anka Reuel, Doktorandin der Informatik an der Stanford University und Mitglied des dortigen Zentrums für KI-Sicherheit, die nicht an dem Projekt beteiligt war. Ihrer Meinung nach wird die bloße Zusammenstellung der mit KI verbundenen Risiken bald nicht mehr ausreichen. „Sie waren sehr gründlich, was ein guter Ausgangspunkt für künftige Forschungsanstrengungen ist, aber ich denke, wir erreichen einen Punkt, an dem es nicht mehr das Hauptproblem ist, die Menschen auf alle Risiken aufmerksam zu machen“, sagt sie. „Für mich geht es um die Folgen dieser Risiken. Was müssen wir tatsächlich tun, um sie zu bekämpfen?“

Lücken in der Datenbank füllen

Diese Datenbank öffnet die Tür für künftige Forschungen. Die Verfasser:innen haben die Liste zum Teil erstellt, um ihren eigenen Fragen nachzugehen, etwa: welche Risiken zu wenig erforscht sind oder nicht angegangen werden. „Was uns am meisten Sorgen bereitet, ist die Frage, ob es Lücken gibt“, sagt Thompson.

„Wir sehen dies als eine lebendige Datenbank, der Anfang von etwas. Wir sind sehr daran interessiert, Feedback dazu zu bekommen“, sagt Slattery. „Wir haben nicht gesagt: ‚Wir haben es wirklich herausgefunden, und alles, was wir gemacht haben, wird perfekt sein‘.

Autor des Textes ist Scott J. Mulligan. Er ist Report für die US-amerikanische Ausgabe von MIT Technology Review.

 

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter?
Jetzt mehr erfahren

Related Articles