Die Qualität von Software steigt, wenn zwei Personen die Programmierung gemeinsam übernehmen. „Die Entwickler sollen sich beim Pair Programming gegenseitig inspirieren und helfen, problematische Lösungen zu vermeiden. Zudem können sie ihr eigenes Wissen an Kollegen weitergeben und dafür sorgen, dass möglichst viele Personen im Unternehmen mit dem Quellcode vertraut sind“, erklärt Sven Apel, Informatik-Professor an der Universität des Saarlandes. Er hat mit seinem Team untersucht, ob dieses Verfahren mit KI-Assistenten wie dem GitHub Copiloten genauso verlässlich funktioniert.
„Beim gemeinsamen Programmieren spielt der Wissenstransfer eine wesentliche Rolle. Die Entwickler diskutieren dafür kontinuierlich die anstehenden Probleme und suchen gemeinsam nach Lösungen. Dabei werden nicht nur Fragen und Antworten ausgetauscht, sondern es werden am Bildschirm bewährte Verfahren demonstriert oder proaktiv eigene Erkenntnisse weitergegeben“, so Apel. Dieses Wissen wurde, wie die Studie zeigt, auch in den Zweierteams mit KI-Assistenten ausgetauscht. Diese agierten jedoch weniger intensiv miteinander und deckten ein geringeres Themenspektrum ab. Vielfach ging es nur um den reinen Programmiercode. „Die menschlichen Teams neigten hingegen dazu, vom Thema abzuschweifen und weniger konzentriert am jeweiligen Problem zu verweilen“, führt der Informatikprofessor als Ergebnis an.
Das Forscherteam war besonders von einer grundlegenden Beobachtung überrascht: Die Test-Programmierer neigten dazu, die Vorschläge des KI-Assistenten ohne kritische Prüfung anzunehmen. Sie vertrauten darauf, dass der Code wie erwartet funktionieren würde. Zwischen den menschlichen Kollegen gab es hierbei viel häufiger kritische Rückfragen und ein gesundes Misstrauen, ob der jeweilige Partner wirklich alles richtig gemacht hat“, sagt Sven Apel. Der Informatikprofessor geht davon aus, dass sich diese Beobachtung auch auf andere Bereiche übertragen lässt, in denen Menschen einer KI schneller vertrauen als anderen Menschen. „Ich denke, das hat etwas mit Bequemlichkeit zu tun. Man denkt sich bei der KI: ‚Das wird schon passen‘, obwohl man eigentlich weiß, dass auch dem virtuellen Assistenten Fehler passieren können“, sagt Apel.
Er befürchtet, dass sich dadurch in großen Softwareprogrammen „technische Schulden“ anhäufen, also Kosten, die in Zukunft mehr Aufwand verursachen und die Weiterentwicklung der Software erschweren und fehleranfälliger machen.
Für den Informatikforscher zeigt die empirische Studie, dass KI-Assistenten für die Softwareentwicklung derzeit noch nicht die Vielfalt der menschlichen Zusammenarbeit nachbilden können. „Sie sind sicherlich nützlich für einfache, sich wiederholende Programmieraufgaben. Für komplexere Themen ist der Wissensaustausch wesentlich, der derzeit besser von Mensch zu Mensch funktioniert, eventuell dann in Kombination mit der KI-Assistenz“, so Apel. Es müsse weiter erforscht werden, wie Mensch und KI vertrauensvoll zusammenarbeiten können, ohne dabei den kritischen Blick zu verlieren. (jr)(jr)
