- Technologie

Kritik an KI: „Es muss mehr Diskussionen über die Kehrseite von KI geben“

Tech-Journalistin Kara Swisher im Interview mit den KI-Expertinnen Kate Crawford und Meredith Whittaker (v.l.n.r.).
Künstliche Intelligenz muss nicht nur Vorteile haben. Diese Meinung vertreten Kate Crawford, Publizistin und verantwortliche Wissenschaftlerin bei Microsofts Forschungsabteilung, sowie Meredith Whittaker, Leiterin der Google Research Group. Die beiden haben vor zwei Jahren das AI Now Institut an der Universität New York gegründet und untersuchen, welche soziale, politische und ethische Bedeutung Künstliche Intelligenz hat.
Im Interview mit Recode-Journalistin Kara Swisher sprechen die US-Forscherinnen über die moralischen Fragen, die sich Politiker, Konzernleiter und Behörden stellen sollten, wenn sie intelligente Datensysteme einsetzen wollen. Die US-amerikanische Polizei nutzt beispielsweise Daten von verhafteten Kriminellen, um voraussagen zu können, wo und durch wen in Zukunft höchstwahrscheinlich Straftaten begangen werden könnten. Oder: Einige Unternehmen verwenden KI-Systeme, um besonders geeignete Personen im Bewerbungsverfahren herauszufiltern.
Das Problem bei solchen Technologien: Die Daten seien nicht neutral, sondern oft patriarchisch und rassistisch vorselektiert, sagen Crawford und Whittaker. „Trainingsdaten aus der Vergangenheit bestimmen, wie KI-Systeme in der Zukunft Entscheidungen fällen werden“, so Crawford. Ihr Ziel sei es, diese Datensätze in gewisser Weise von alten, falschen Inhalten zu reinigen.
Daher müssten die intelligenten Technologien kritischer betrachtet werden, sagen die Institutsleiterinnen. „Es muss mehr Diskussionen über die Kehrseite von KI geben“, so Whittaker. Nicht unbedingt über Superintelligenzen, die die Menschheit auslöschen könnten, sondern über grundlegende Fragen. Muss ein Computer einen Hund von einer Katze unterscheiden können, zum Beispiel. Die Wissenschaftlerinnen raten Firmen deswegen, dass sie sich erst einmal fragen sollten, ob KI für ihr Geschäft überhaupt angemessen sei, bevor sie die Technik implementieren – selbst wenn sie fehlerfrei funktionieren würde. 

Mehr zum Thema Künstliche Intelligenz liefert der Gründerszene-Report:

Das komplette Interview gibt es hier im Video:
[embedded content]
Bild: Screenshot / Youtube