Studie: Wenn Menschen KI-Entscheidungen verschlechtern

Die Technische Universität Berlin hat in einem neuen Positionspapier ein unbequemes Ergebnis zusammengefasst: Teams aus Mensch und KI treffen häufig schlechtere Entscheidungen als die KI allein. Das gilt etwa in Radiologie, Sicherheitstechnik oder Prozessüberwachung. Je zuverlässiger die Systeme, desto häufiger überschreiben Menschen korrekte Empfehlungen – aus dem Bedürfnis heraus, ihre Entscheidungsrolle wahrzunehmen, oder weil sie die Leistungsfähigkeit der KI unterschätzen. Damit entsteht ein Widerspruch zum geplanten EU AI Act, der „wirksame menschliche Aufsicht“ für Hochrisikoanwendungen fordert. Wie soll diese aussehen, wenn menschliches Eingreifen die Ergebnisse verschlechtert?

Die Forscherinnen und Forscher fordern neue Ansätze: Statt rein technischer Erklärungen müsse KI ihre Stärken und Schwächen klar kommunizieren, etwa in Form verhaltensleitender Hinweise. Langfristig könnten adaptive Systeme entstehen, die menschliche und maschinelle Stärken gezielt kombinieren. Bis dahin bleibt die Herausforderung bestehen: Menschliche Aufsicht darf nicht zur Schwachstelle werden, wenn KI-Systeme statistisch überlegen sind. (oe)

Originalmeldung