Forschung zur Künstlichen Intelligenz: Mensch und Maschine im Team

Vortrag von Prof. Dr. Niklas Kühl, Universität Bayreuth, an der KGS Alexander-von-Humboldt

Über KI wird gerade viel geredet, und es soll schon Zeitgenossen geben, die lassen sich von ChatGPT die Zukunft vorhersagen. Andere erhoffen sich endlich die Weltformel, damit klar ist, was vor dem Urknall war – und nach dem Kollaps kommt: Aber über Möglichkeiten und Grenzen der KI zu forschen, erfordert eine andere Fragestellung und einen anderen Blick, als mit KI in eine erhoffte Welt der Wunder abzutauchen oder endlich den Chat-Partner gefunden zu haben, der jede Antwort kennt.

KI ist ein nicht neues, aber gerade bedeutsam wachsendes Forschungsfeld an internationalen Universitäten und Wirtschaftsstandorten, das sich nicht nur mit den gesellschaftlichen Herausforderungen der Entlastung von menschlichem Denken und Handeln durch KI, sondern auch mit deren technischer Weiterentwicklung beschäftigt: KI verstehen und bauen – wer kann das schon?

Er kann es: Niklas Kühl, ehemaliger Schüler der KGS Alexander-von-Humboldt, lehrt inzwischen Wirtschaftsinformatik und humanzentrische KI an der Universität Bayreuth. 2007 hatte er in Wittmund Abitur gemacht, in Oldenburg und Karlsruhe studiert, eine Zeitlang bei Porsche national und international Entwicklungsarbeit gemacht, schließlich in Karlsruhe im Fach Wirtschaftsinformatik promoviert und 2023 die Habilitation an der Universität Bayreuth erworben. Dort ist er jetzt Professor, was ihn aber nicht hindert, kreuz und quer zwischen internationalen Universitäten unterwegs zu sein. So liest man es auch auf der Homepage der Uni Bayreuth: Zu seiner Forschung „gehören Themen wie die automatisierte Erkennung von Bedürfnissen in sozialen Medien, das maschinelle Lernen über Unternehmensgrenzen hinweg, die Entwicklung von robusten und skalierbaren KI-Produkten, die Gestaltung der Zusammenarbeit zwischen Menschen und KI, die Erforschung von angemessenem Vertrauen von Menschen in KI-Entscheidungen, die Ausgestaltung von Fairness in der KI-Entscheidungsfindung sowie die Auswirkungen und der Nutzen von KI für Themen der Nachhaltigkeit. […] Niklas Kühl arbeitet mit verschiedenen internationalen Institutionen zusammen, an denen er regelmäßige Forschungsaufenthalte absolviert und die Ergebnisse seiner Forschung präsentiert. Dazu gehören die University of Warwick, die University of Auckland, das MIT-IBM Watson AI Lab, die Wharton School der University of Pennsylvania und die University of Texas at Austin.“ (https://www.wi.uni-bayreuth.de/de/team/niklas_kuehl/index.php)

Und Wittmund?

Gern erinnert er sich an seine Schülerzeit: „Ich fühlte mich gut gefordert durch die Lehrkräfte, und der Unterricht hat auch mein Interesse für Wirtschaftsinformatik geweckt!“ Gern komme er auch an seine Schule zurück, um über sich und seine Forschung zu erzählen. Da hat Gymnasialzweigleiterin Birthe Flathmann nicht gezögert und ihn schon zum zweiten Mal zu einem Vortrag für alle interessierten Schülerinnen und Schüler und Lehrkräfte eingeladen. „Vor einigen Jahren war KI noch ein exotisches Thema, heute genießt es ein verstärktes Interesse!“ Aber wie damit umgehen, wenn der Computer inzwischen besser Aufgaben löst als der menschliche Genius und als Superintelligenz schon aus einer nahen Zukunft winkt, wo menschliches Handeln zwar lückenlos ferngesteuert, aber dem Fortschritt sei Dank endlich funktioniert?

Hier auf verständliche Weise die Entwicklung der KI zur Darstellung zu bringen, ist Prof. Kühls Absicht, und er wünscht sich gleichzeitig, die Schülerinnen und Schüler seiner KGS zu motivieren, mutig ihren ganz eigenen Lebensweg einzuschlagen und die Möglichkeiten von Studium und Beruf immer daran zu bemessen, ob der eingeschlagene Weg einen persönlich bereichert. Solch ein Mut verlangt den Willen, Entscheidungen zu treffen bzw. diese auch zu korrigieren. Geld und Karriere locken manchen in die Falle der Fremdbestimmung eines Firmeninteresses, wo der Wunsch, die Dinge tiefer zu verstehen und neue Ideen ihrer Entwicklung und Gestaltung zu gewinnen, warten muss oder auf den Bereich der wirtschaftlich rentablen Produktion eingeschränkt wird. Er habe sich schließlich für Forschung und Lehre entschieden, die es ihm ermöglichen, gerade die technischen und gesellschaftlichen Dimensionen der KI, deren Komplexität rasant wächst, von einem umfassenden Standpunkt des Menschlichen aus zu verstehen und zu kommunizieren.

Was der Vortrag von Anfang an deutlich macht: Über künstliche Intelligenz zu sprechen setzt immer einen Begriff von Intelligenz voraus, der sich an den geistigen Kräften des Menschen bemisst. Bevor also der Mensch sein Gehirn maschinell nachbaut, muss er dessen Leistung erst einmal selbst verstehen. Intelligenz meint generell Abstraktionsfähigkeit beim Problemlösen bzw. vernünftiges zweckgerichtetes Handeln, d. h. die Fähigkeit, die Bedingungen zu ermessen, unter denen der Mensch seine Entscheidungen trifft. Aber da kommt schon eine Voraussetzung ins Spiel, welche Prof. Kühl im weiteren Verlauf als Grenze von KI verdeutlicht: Abstraktion und vernünftiges Kalkül sind das eine, aber Entscheidungen zu treffen ist im Kern nicht nur eine Frage der Intelligenz, sondern einer höherstufigen geistigen Fähigkeit, in der unser Freiheitsbewusstsein seine Wurzeln hat.

Also muss man, um KI zu verstehen, einen Schritt zurückgehen und den Begriff der Intelligenz allgemeiner auf der Ebene eines operationalisierbaren Verstandes bedenken. Niklas Kühl erklärt, natürliche, also allen Organismen in unterschiedlichen Komplexitätsgraden zukommende Intelligenz sei die kognitive Kapazität, Informationen zu speichern und adaptiv, also durch Anpassung an unterschiedliche Situationen, anwenden zu können. Somit gilt für die Maschine: Schwache KI sei gut in einer bestimmten Aufgabe wie z. B. Schach, starke KI so intelligent wie der Mensch und verständig in allen Bereichen kognitiver Verarbeitung, eine künstliche Superintelligenz aber, über die Kühls Kollege Nick Bostrom forscht, eine geistige Macht in beliebig realisierbaren Kontexten bzw. praktisch in jedem Bereich menschlicher Vernunft: Sie verfüge über Weisheit, wissenschaftliche und künstlerische Kreativität und alle Facetten sozialer Interaktion.

Der Traum vom Weltweisen und Universalgenie, wo die geistige Kraft des Menschen gottgleich wird, scheint nun durch Technik Realität zu werden. Die Frage, die sich stellt, ist: Was träumt dann zukünftig die superintelligente Maschine? Kühl formuliert in seinem Vortrag aber keine post-humanistische Aufkündigung des Menschen, sondern einen humanistischen Pragmatismus des Umgangs mit KI, deren technische Bedingungen maschinelles Lernen auf Datenlogik einschränken. Denn KI muss schließlich mit Daten gefüttert werden, die der Mensch durch eigene geistige Vorarbeit zur Verfügung stellt. Denn auch die Daten bzw. Informationen, welche KI im zweiten Schritt durch maschinelles Lernen selbst weiterverarbeitet, entstammen ursprünglich der menschlichen „Lesbarkeit der Welt“, die, wie der Münsteraner Philosoph Hans Blumenberg anmerkt, nicht möglich wurde durch das, was der Menschen wissen kann, sondern wissen will. Kann KI etwas wissen wollen?

Gemäß der eingangs angeführten Definition natürlicher Intelligenz erläutert Prof. Kühl das maschinelle Lernen als einen allgemeinverständlichen Prozess: KI liest die Zuordnungen von Informationseingaben und -ausgaben, es gibt vorgefertigte Kategorien im Sinne von Zielvariablen, mit denen neue Muster erkannt werden bzw. unbekannte Zielvariablen erschlossen werden. Es handelt sich also um ein Lernen auf der Ebene von Tabellen und Schemata. Aber wie sieht das bei textbasierten Dialogsystemen aus? Natürlich war das Auditorium darauf gespannt, wann der Vortrag endlich das Thema ChatGPT anspricht: Schließlich musste man früher noch selbst durch copy and paste die Facharbeit aufmöbeln, jetzt erledigt der Chatbot den ganzen Betrug allein. Wie schafft KI es, den kompletten Textbestand des Web durchzukämmen und „Wissen“ zu generieren als Antwort auf unsere Fragen? Die Textinformationen müssen als erstes gelabelt werden, was bedeutet, dass Texte reduziert werden auf generalisierte Begriffe, quasi Etiketten, die es erlauben, große Textbestände auf ihre Kernaussagen zu diesen Begriffen zu reduzieren. Das ermöglicht KI, Wahrscheinlichkeitsberechnungen der nächsten Wörter durchzuführen und das Löschen von Text selbst vorzunehmen. Aufgrund der technischen Entwicklung konnte diese Kalkulation der Überführung von Textkomplexität in Labels mittels Textlöschung, welche der Rückkopplung von Datenverarbeitung in neuronalen Netzwerken analog entspricht, exponentiell gesteigert werden, sodass ChatGPT uns Antworten gibt, die auf den ersten Blick wahrhaftig und sinnvoll erscheinen. Aber Prof. Kühl betont, es handele sich immer um historische Daten, also aus menschlichem Wissen generierte Informationen, mit denen das Netz einstmals gefüttert wurde, und die sind teils fehlerhaft oder falsch bzw. können sogar im Rahmen der massenhaften Datenverarbeitung von KI systematisch diskriminieren. Mit anderen Worten: Der Chatbot transportiert durch Fehler falsches Bewusstsein, das die Köpfe der User verdummt. Ist das von Kühl gewählte Beispiel noch harmlos, Wittmund-Leerhafe sei die Hauptstadt von Ostfriesland, sind die Folgen desaströs, wenn KI z. B Einfluss auf Bewerbungen nimmt und Frauen und Migranten benachteiligt werden.

Die Erkenntnis, dass immer nur aus historischen Daten gelernt wird, zwingt auch hier zu der Frage, was uns befähigt, deren Fehlerhaftigkeit bzw. Falschheit oder sogar Manipulation zu durchschauen und die Folge der Diskriminierung und Verblendung zu reflektieren: Ist unser Begriff von Fairness nicht Teil einer höherstufigen Intelligenz, die quer zur Datenverarbeitung nach deren Sinn fragt?

Aber auch an dieser Stelle bricht Prof. Kühl eine Lanze für KI: Sie fördere unser Verständnis für systematische Diskriminierung und konfrontiere uns mit dem Problem der notwendigen Umsetzung von Fairness im Dschungel der Web-Intelligenz. Der Mensch bleibe weiterhin Entscheidungsträger, und diese geistige Ebene eines vernünftigen Wollens ist der Standpunkt, von dem aus darüber nachgedacht werden muss, wie der Mensch sinnvoll und zielführend mit seinem Produkt KI umgeht. Aber da trennen sich die Geister: Gegenwärtig gäbe es leider auf der einen Seite die besorgten Skeptiker, welche KI rigoros ablehnen, und auf der anderen die verträumten Schwärmer, welche KI blind vertrauen. Niklas Kühl formuliert einen dritten Weg: Die Nutzung von KI sollte auf der Basis eines „kalkulierten Vertrauens“ versucht werden. Den Menschen müsse die Fähigkeit an die Hand gegeben werden, reflektiert und somit „kalibriert“ KI-Entscheidungen zu vertrauen. Das bedeute: „Mit der KI mitgehen, wenn sie recht hat, und auf die eigene Entscheidung vertrauen, wenn man selbst recht hat!“

Das ist bei genauem Hinsehen ein aus der ethischen Perspektive des Menschen formulierter Hinweis auf unser Gewissen, das Wahrheit und Gerechtigkeit zum absoluten Maß hat. Denn Wahrheit und Gerechtigkeit lassen sich nicht durch Kalkulation messen, sonst müsste man mehrere tausend Jahre philosophischer Erkenntnis der KI opfern. Ein kalibriertes Vertrauen muss dann ein Ermessen der faktischen Datenlage, die KI bereitstellt, für Gewissensentscheidungen sein, aber die Entscheidung der KI zu überlassen ist auch eine Entscheidung, die verantwortet werden muss. Kann KI ein Gewissen haben? Natürlich nicht. Das Wissen der KI ist die Macht, schneller komplexe Datenbestände zu filtern und anzuordnen, welche in Entscheidungsfragen die Möglichkeit schafft, das Handlungsdilemma noch differenzierter faktisch zu ermessen z. B. in der Berechnung von Handlungsfolgen. Aber die Beurteilung der Fakten ist noch keine Entscheidung, diese ist ein Schließen aus einer Handlungsnotwendigkeit, deren Grund durch Vernunft eingesehen wird. Darum plädiert Kühl für eine „komplementäre Team-Performance“ zwischen Menschen und KI. KI sei besser bei der Lösung von Aufgaben, der Mensch wisse aber die Ziele dieser Aufgaben, kenne die Probleme der Ethik von Fairness und Toleranz, habe ein Bewusstsein von der Pluralität der Weltsysteme. In komplementärer Teamarbeit mit KI könne der Mensch die Effizienz seiner Entscheidungen, die hinsichtlich deren Ermessens „intelligente“ Entscheidungen sein sollten, wesentlich steigern.

KI würde in Zukunft den Menschen generell nicht die Jobs wegnehmen, sondern Arbeiten übernehmen, die Entscheidungen auf der Basis tabellarischer verwalteter statistischer Daten operationalisieren. Die Befürchtung, dass Jobs, die zwar aus reinen Routinearbeiten bestünden, aber von Menschen als erfüllend wahrgenommen würden, durch KI wegrationalisiert werden, sei aber nicht abzuweisen. Die Entscheidung, ob man bei der Entwicklung von KI jetzt pausieren sollte, da inzwischen Entwickler ihre Programme nicht mehr verstehen oder wirksam kontrollieren könnten, wodurch das Web mit fake news und Propaganda überschwemmt würde, hält Kühl für richtig: Er selbst habe den offenen Brief zusammen mit anderen Wissenschaftlern unterschrieben. Er sei aber der Meinung, der Prozess der Entwicklung lasse sich aus Gründen der Interessenspolitik nicht aufhalten. Mit diesem Wink auf bekannte Großmächte wurde die Diskussion eröffnet, in der sich Prof. Kühl als problembewusst argumentierender Gesprächspartner präsentierte: Auf die kritischen Rückfragen zur Produktion von Unwahrheit im maschinellen Rückkopplungsprozess der Datenverarbeitung, zur Gefahr der Hoheitsmeinung KI-basierter Berechnungen in öffentlichen Entscheidungsprozessen aufgrund der menschlich nicht möglichen Bewältigung von Datenmasse, aber auch zur Beantwortung von metaphysischen Fragen und bisher unlösbaren Problemen menschlicher Selbsterkenntnis, auf die eine zukünftige Superintelligenz uns die passenden Antworten nach einer Nacht des Grübelns über das Welträtsel der eigenen Existenz zum Frühstück aufs Smartphone sendet, antwortete Niklas Kühl mit kritischer Relativierung gegenwärtiger post- und transhumanistischen Tendenzen und der Gelassenheit des „kalkulierten Vertrauens“, dass KI eine auf den Menschen zentrierte Technik sei.

Wir danken Prof. Dr. Niklas Kühl für den anregenden Wissenschaftsnachmittag.
Dr. Reinhard Aulke, Gesamtschuldirektor

Schulstart 2025
06. Januar 2025