Evangelischer Kirchenbezirk Weikersheim - Griffiger wissenschaftlicher Vortrag von Dr. Matthias Braun über „Künstliche Intelligenz“ bei der Frühjahrssynode

Die Bibel oder einfach „Siri“ fragen?

Von 
Michael Weber-Schwarz
Lesedauer: 
Der Computer denkt, Gott lenkt? Theologe Matthias Braun sieht die Verantwortung für „Künstliche Intelligenz“ klar beim Menschen. © Michael Weber-Schwarz

„Warum lebe ich?“ – die Frage stellen sich Christen vor dem Hintergrund der Bibel. Heute können auch sie das „Internet“ oder „Siri“ fragen. Ein Vortrag bei der Frühjahrssynode stellte sich dem Komplex.

Weikersheim. „Künstliche Intelligenz – eine theologisch-ethische Erkundung“– unter diesem Titel stand ein zentraler Vortrag des Wissenschaftlers Dr. Matthias Braun bei der Frühjahrssynode des Kirchenbezirks Weikersheim. Im voll besetzten Gemeindesaal referierte der Theologe, Ethiker und Biologe (Universität Erlangen-Nürnberg) und zeigte das Spannungsfeld zwischen „Big Data“ und christlicher Perspektive auf.

Nur vier oder fünf Teilnehmer der Synode nutzen kein „Smartphone“, so das Ergebnis einer Kurzumfrage Brauns. „Künstliche Intelligenz“ steckt in Computern und Mobiltelefonen. Selbstdiagnosemöglichkeiten per „Apps“ dienen heute in vielfältiger Weise der „Selbstoptimierung“, dem vermeintlich glücklich machenden Weg zum „homo perfectus“. Doch die digitalen Datensammler belassen es nicht beim Verbessern des Einzelmenschen: Daten werden im großen Stil und überall erhoben, gehandelt und in Beziehung gesetzt. Und sie können – auch unangenehme – Folgen haben.

Beispiel soziales Netzwerk „Facebook“: Wer hier auch nur 68 Einträgen zustimmt („liked“), der hinterlässt einen kaum mehr zu tilgenden persönlichen Steckbrief. Bei einer Treffsicherheit von 95 Prozent kann das dahinter stehende Unternehmen Hautfarbe, sexuelle Neigungen und politische Einstellung feststellen. Nicht nur die passende Werbung kann so „bereitgestellt“ werden. In totalitären Systemen etwa stehen Menschen so potenziell unter Daueroberservierung.

Eingriffe in die Freiheit

Künstliche Intelligenz und Datensammlungen berühren eine Vielzahl von „heiklen“ menschlichen Feldern: Datensicherheit, Datenschutz. Privatsphäre, Souveränität und Autonomie, so Matthias Braun am Beispiel des Autonomen Fahrens. Dem gegenüber stehen durchaus Verbesserungen für eine Gesellschaft. Weniger Verkehrstote, besserer Verkehrsfluss, weniger Abgase, ein entspannteres Fahren. Wo die Einsatzmöglichkeiten von KI soziale Bereiche („Lebensdomänen“) überschreiten, kann es für Menschen schnell unangenehm werden. Beispiel China: Wer dort zu schnell fährt, riskiert mit dem Strafzettel über ein online betriebenes Rating-System Kreditwürdigkeit und berufliche Entwicklung. Durch eine umfassende Überwachung sollen Bürger zu mehr „Aufrichtigkeit“ im sozialen Verhalten erzogen werden. Auch hier macht das System vor dem Einzelnen nicht halt: Was, wenn ein „guter Einwohner“ die Freundschaft mit einem „Raser“ pflegt? Er „scort“ sich dadurch möglicherweise selbst mit herunter.

Längst gibt es, so Matthias Braun, kein Computer-An/Aus mehr. Wir leben nicht mehr online oder offline, sondern ein „Onlife“. Es stellen sich Fragen: Geht uns irgendwann wegen der Computer die Arbeit aus? Verlieren wird das Gefühl für „offline“? Wie steht es mit Freiheit und Kreativität – machen Internet und Vernetzung sogar neue Formen möglich? Wo liegt die Bedeutung von Liebe, Fürsorge, Solidarität? Und: Internet, Datensammler und KI existieren nicht „einfach so“ – hinter allem steckt als Triebfeder eine „starke Ökonomisierung“, so Braun. Kurz: Es soll Geld gemacht werden.

Die theologische Perspektive bietet ein interessantes Korrektiv: Technikfurcht („Der Mensch spielt Gott“) sei ebenso wenig angebracht wie blinde Technikvergötterung. Diet-rich Bonhoeffer etwa stellt den Christen zugleich in der Gottes- und der Weltwirklichkeit dar: das „Vorletzte“ diene aber quasi zwingend dem „Letzten“. Die erste und wichtigste Frage sei die des „Phänomens“, den (nüchternen) Blick auf das, was sich entwickelt und darstellt. Ethik ist – weit vor einer „moralischen“ Handlungsempfehlung – die die Kunst der Unterscheidung („welche Effekte hat eine Technologie in einem bestimmten Kontext“). Die wiederum setzt breite Formen von Bildung voraus.

In einem aktuellen Interview mit dem Deutschlandfunk hat Braun den Gedanken weitergeführt: „Das Zweite – und das ist vielleicht etwas, was wir als Theologen wirklich auch in die Debatte einbringen können – ist erst mal eine gewisse Kühnheit, so hat Bonhoeffer das genannt, und Kühnheit heißt ja auch, einen gewissen Wagemut, eine gewisse Hoffnungsfrohheit. Das heißt nicht, dass wir immer optimistisch sind, aber das heißt, dass wir uns die Hoffnung nicht rauben lassen und dass wir aus dieser Haltung heraus die Gestaltung solcher Herausforderungen angehen.“ Das Gespräch gibt es als Podcast und Manuskript unter dem Titel „Künstliche Intelligenz und Theologie – Deus vs. Machina“ unter www.deutschlandfunkkultur.de.

Auf der Suche nach dem richtigen Umgang mit „Künstlicher Intelligenz“

„Künstliche Intelligenz“ (KI) bezeichnet im Kern den Versuch, Entscheidungsstrukturen des Menschen nachzubilden. Computer sollen so gebaut und programmiert werden, dass sie eigenständig Probleme bearbeiten können. Durch komplexe Rechenoperationen („Algorithmen“) kann „intelligentes Verhalten“ simuliert werden.

Im Begriff KI spiegelt sich die aus der Aufklärung stammende Vorstellung vom „Menschen als Maschine“ wider. Menschliches Denken (und damit auch Entscheidungsprozesse) könne mechanisiert werden, so die Annahme.

In der Diskussion um so genannte „starke KI-Systeme“ wird nicht angenommen, dass eine künstliche Intelligenz Gefühle wie Liebe, Hass, Angst oder Freude besitzt. Es kann solchen Gefühlen entsprechendes Verhalten jedoch simulieren.

Neben den Forschungsergebnissen der Informatik sind in die Erforschung der KI Ergebnisse der Psychologie, Neurologie und Neurowissenschaften, der Mathematik und Logik, Kommunikationswissenschaft, Philosophie und Linguistik eingeflossen.

Der Präsident von Microsoft, Brad Smith hat vorgeschlagen, einen Verhaltenskodex zu erstellen, der ähnlich der „Genfer Konvention“, die Risiken der Künstlichen Intelligenz verringern soll.

Der Ethiker Prof. Dr. theol. Peter Dabrock (Universität Erlangen-Nürnberg) empfiehlt im Kontext der Benutzung und Programmierung von Künstlicher Intelligenz nicht nur die digitale Kompetenz der Beteiligten zu erhöhen, sondern auch auf klassische Bildungselemente zu setzen. Um mit den Herausforderungen zurechtzukommen seien Kenntnisse aus Religion, Literatur, Mathematik, Fremdsprachen, Musik und Sport eine gute Voraussetzung. mrz

Redaktion Im Einsatz für die Lokalausgabe Bad Mergentheim

Copyright © 2025 Fränkische Nachrichten