„Dieser Text ist unter Nutzung einer KI entstanden. Die tragenden Gedanken, Überzeugungen und theologischen Setzungen stammen vom menschlichen Autor; die KI war Werkzeug und Resonanzraum.“

So wird es auch unter diesem Essay stehen – wie bereits unter anderen Texten von mir. Doch was heißt das eigentlich? Wer schreibt hier? Und wer trägt am Ende die Verantwortung für das Geschriebene? Was bedeutet es für die Wertigkeit eines Textes, wenn KI an seinem Entstehen beteiligt ist?

Über diese Fragen denke ich im Folgenden nach – auch als Selbstreflexion meiner eigenen theologischen Praxis. Denn ja: Auch dieser Text entsteht im Dialog mit einer KI. Während ich schreibe, ist der Chat geöffnet. Ich bringe Gedanken, Thesen, Unschärfen ein – und erhalte Vorschläge, Varianten, Verschiebungen. Nichts davon übernehme ich einfach. Ich widerspreche, formuliere um, hake nach. So entsteht ein begleitendes Gespräch, ein Denkraum, der mein eigenes Nachdenken strukturiert und herausfordert.

Mehr als ein Werkzeug

KI ist Teil meines Schreibprozesses geworden. Anfangs war sie vor allem Werkzeug: Suchhilfe, Synonymlexikon, Strukturgeber. Inzwischen erlebe ich sie stärker als Gesprächspartnerin. Nicht als personales Gegenüber mit eigener theologischer Stimme, wohl aber als technisches Gegenüber, das reagiert, sortiert, verstärkt oder irritiert. Und wie in jedem guten Gespräch verändert das mein eigenes Denken.

Was ein Large Language Model ausgibt, ist nicht originell, sondern wahrscheinlich: statistisch erzeugte Sprache, gespeist aus großen Textmengen. Zugespitzt gesagt: der Durchschnitt – auch theologisch. Gerade deshalb ist die KI keine bloße Echokammer meiner eigenen Gedanken. Sie bringt anderes ins Spiel, nicht weil sie kreativer wäre, sondern weil sie anders kombiniert, anders gewichtet, anders sortiert.

Am deutlichsten zeigt sich das im Zusammenspiel von Nachdenken, Konzipieren und Schreiben. Ich beginne einen Text meist mit einer groben Idee, einer These, manchmal nur mit einer vagen Unruhe. Diese formuliere ich – oft noch unscharf – und lege sie der KI vor. Was zurückkommt, ist selten etwas, das ich einfach übernehmen könnte. Stattdessen öffnen sich Vorschlagsräume: alternative Gliederungen, andere Begriffe, verschobene Akzente.

Manche dieser Vorschläge verwerfe ich sofort. Andere irritieren mich – und führen gerade dadurch weiter. Denn ich muss mich entscheiden: Warum überzeugt mich dieser Zugang nicht? Warum halte ich an einer anderen Perspektive fest? Was ist mir hier eigentlich theologisch wichtig?

Der Dialog zwingt mich so, meine eigenen Kriterien offenzulegen. Nicht nur Inhalte, auch Sprache, Rhythmus und innere Struktur werden bewusster. Vertraute Denkbewegungen tragen nicht mehr automatisch. In diesem Sinn ist KI für mich ein Resonanzraum, der sichtbar macht, wo ich zu schnell bin – bei Übergängen, bei begrifflichen Abkürzungen, bei den Stellen, an denen ich mir selbst noch nicht wirklich klar bin.

Autorschaft und Verantwortung

Eben deshalb verstehe ich mich weiterhin als Autor des so entstehenden Textes. Theologie ist mehr als die Produktion sinnvoller Sätze über Gott. Sie ist religiöse Selbstdeutung: der Versuch, Erfahrungen, Überzeugungen und Hoffnungen im Horizont des Glaubens zur Sprache zu bringen. KI kann diesen Prozess begleiten, strukturieren und irritieren – sie vollzieht ihn nicht selbst.

Gleichzeitig greift es zu kurz, diesen Text einfach mir allein als Autor zuzuschreiben. Die KI denkt nicht für mich. Aber sie bringt mein Denken in Bewegung. Der Denkprozess verändert sich im Dialog: Akzente verschieben sich, Vorschlagsräume öffnen sich, Argumente werden geschärft oder verworfen. In diesem begrenzten Sinn prägt die KI den Entstehungsprozess mit – ohne dass damit Verantwortung für das Ergebnis abgegeben wäre.

Gerade deshalb erscheint mir Transparenz notwendig. Nicht um Urheberschaft zu relativieren, sondern um den Entstehungszusammenhang offenzulegen. Entscheidend bleibt die Verantwortung für das Geschriebene. Sie liegt beim menschlichen Autor – dort, wo Begriffe gewählt, Linien verfolgt und Zuspitzungen verantwortet werden. Mit der Veröffentlichung stelle ich mich zu diesem Text. Er gewinnt ein Eigenleben, das über meine Intentionen hinausgeht. Und bleibt mir dennoch zurechenbar.

KI ist nicht neutral

Doch diese Verantwortung beginnt nicht erst mit der Veröffentlichung, sondern bereits mit der Nutzung selbst. Denn KI ist nicht neutral. Sie beruht auf ökonomischen Voraussetzungen: Infrastruktur, Rechenleistung, Energie, Daten. Sie wird überwiegend von großen Tech-Unternehmen bereitgestellt, mit entsprechenden Interessen und Machtkonzentrationen. Zugang ist ungleich verteilt.

Auch die Antworten selbst sind nicht neutral. Sie entstehen aus Trainingsdaten, die gesellschaftliche Verhältnisse spiegeln – inklusive ihrer Schieflagen. Bias, Machtasymmetrien und systematische Auslassungen gehören dazu. Welche Stimmen kommen vor? Welche Erfahrungen gelten als normal? Welche Perspektiven fehlen? Wer mit KI arbeitet, arbeitet immer auch mit diesen Voraussetzungen.

Dabei gilt allerdings: Streng genommen ist kein Gespräch neutral. Auch menschliche Gegenüber bringen Voraussetzungen, Perspektiven und Interessen mit. Verstehen vollzieht sich immer innerhalb solcher Prägungen. Bei der KI treten diese Voraussetzungen jedoch in besonderer Weise in den Hintergrund – gerade weil ihr kein personales Bewusstsein, keine Verantwortung und keine eigene Deutungsperspektive gegenüberstehen. Ihre Begrenztheit ist nicht dialogisch korrigierbar, sondern systemisch eingebaut. Darum braucht es hier besondere Aufmerksamkeit.

Theologische Tiefenschärfe

Die Arbeit mit KI wirft jedoch nicht nur technische oder ethische Fragen auf, sondern berührt grundlegende theologische Fragen. Sie klären sich nicht einmalig, sondern stellen sich im Vollzug immer wieder neu.

Der Umgang mit KI verlangt vielmehr ein reflektiertes Arbeiten: eine Praxis, die nicht nur funktioniert, sondern sich selbst begleitet, befragt und korrigiert. Theologische Reflexion ist hier kein nachgeordnetes Nachdenken, sondern Teil des Vollzugs selbst – ein Arbeiten, das im Tun lernt.

Zunächst stellt sich die Frage nach dem Menschenbild. Gerade weil KI auf irritierende Weise „menschlich“ erscheint, verweist sie auf das, was Menschsein ausmacht. Theologisch gesprochen ist menschliches Selbstverhältnis ein personales Selbstverhältnis – getragen von Verantwortung, Beziehung und Antwortfähigkeit.

Eine KI kann solche Dimensionen sprachlich darstellen und reproduzieren. Sie besitzt jedoch kein personales Selbstverhältnis. Sie steht nicht leiblich für ihr Sprechen ein, übernimmt keine Verantwortung und kennt keine eigene Hoffnung. Sie operiert mit personaler Sprache, ohne selbst Träger personaler Beziehung zu sein. Vor allem ist sie nicht individuell, sondern operiert notwendig im Allgemeinen, im Wahrscheinlichen.

Hier berührt die anthropologische Frage die hermeneutische. Verstehen geschieht in der Dialektik zwischen Allgemeinem (Sprache, Tradition) und Individuellem (Person, Situation). Für die Praxis heißt das: Wo mit KI gearbeitet wird, müssen Individualität, Leiblichkeit und Verletzlichkeit bewusst eingebracht werden. Geschieht dies nicht, drohen sie im sprachlichen Durchschnitt zu verschwinden.

Und genau dies gilt auch für den Glauben.

Glauben erschöpft sich nicht darin, religiöse Inhalte zu kennen oder korrekt wiederzugeben. Er vollzieht sich als „existenzbestimmtes Vertrauen“ – als eine Weise, sich selbst, die eigene Wirklichkeit und die eigene Zukunft zu deuten. Schleiermacher hat dafür vom Sinn und Geschmack für das Unendliche gesprochen, vom religiösen Gefühl als einer Grundhaltung des Wahrnehmens und Verstehens.

KI kann dabei helfen, Inhalte zu klären, Traditionen zu erschließen und Begriffe zu ordnen. Sie kann zeigen, was geglaubt wird – und sie kann plausible religiöse Sprache liefern. Was sie nicht leisten kann, ist die individuelle Aneignung. Glaubenssprache lässt sich erzeugen. Vertrauen nicht. Symbole lassen sich reproduzieren. Tragen muss sie der Mensch.

Macht, Sprache, Normalisierung

Damit stellt sich die Machtfrage auch ausdrücklich theologisch. Denn wo Glaubenssprache technisch verfügbar wird, verändern sich die Bedingungen theologischer Rede – und zwar nicht nur an der Oberfläche. In den Antworten der KI stecken immer auch Voraussetzungen: implizite Menschenbilder, Bilder von Religion, still mitlaufende Plausibilitäten darüber, was „vernünftig“, „modern“ oder „problematisch“ ist. Man bekommt also nicht nur Formulierungen, sondern ein vorgeprägtes Deutungsfeld mitgeliefert.

Das bleibt nicht folgenlos. Wer regelmäßig mit solchen Vorschlägen arbeitet, merkt: Nicht nur der Text wird glatter, auch das Nachdenken kann technischer werden – schneller, lösungsorientierter, stärker auf Anschlussfähigkeit getrimmt. Das kann helfen. Aber es hat eine Schattenseite: Das Sperrige, das Unverfügbare, das, was sich nicht sofort in eine saubere Form bringen lässt, wird leichter übersprungen. Gerade theologisch ist das heikel, weil Theologie auch davon lebt, Fragen offen zu halten und Differenzen auszuhalten.

Macht wirkt hier nicht primär als Verbot, sondern als Normalisierung (Foucault): über Routinen, Vorschläge, Wiederholungen. Was häufig angeboten wird, erscheint bald selbstverständlich. Was selten vorkommt, gerät aus dem Blick. Die Steuerung ist dabei meist leise: nicht als Befehl, sondern als stiller Sog dessen, was nahe liegt und sprachlich bereitsteht.

Darum braucht es hier theologische Wachheit gegenüber den Prämissen, die sich einschleichen: Welche Deutungen werden plausibel – und welche verschwinden? Welche Metaphern dominieren? Wo diese Fragen nicht mitlaufen, passt sich Theologie unmerklich an. Wo sie mitlaufen, kann KI sogar helfen, eigene Routinen sichtbar zu machen – und Urteilskraft zu schärfen.

Praktisch-theologische Orientierungen

KI ist längst Teil kirchlicher Praxis. Sie wird genutzt – unterschiedlich reflektiert, unterschiedlich routiniert, oft implizit. Sich ihr grundsätzlich zu entziehen, ist keine neutrale Position. Ebenso wenig hilft unreflektierte Normalisierung. Entscheidend ist nicht das Ob, sondern das Wie der Nutzung.

Die kirchlichen Arbeitsfelder unterscheiden sich derzeit deutlich in Art, Intensität und Selbstverständlichkeit der KI-Nutzung:

Bildung und Schule:
KI ist faktisch präsent und entwickelt sich rasant. Entscheidend ist nicht das Verbot, sondern pädagogische Begleitung, Kompetenzaufbau und Urteilsbildung.

Öffentlichkeitsarbeit und Verwaltung:
Effizienzgewinne sind real. Zugleich braucht es Aufmerksamkeit für Ton, Profil und sprachliche Eigenständigkeit.

Seelsorge und Verkündigung:
Beziehung, Vertrauen und Subjektivität stehen im Zentrum. KI kann hier höchstens unterstützend wirken, nicht ersetzend.

Wissenschaft und Theologie:
Zugleich Ort intensiver Debatte und praktischer Nutzung in Studium und Forschung; daraus folgt besondere Verantwortung für Kriterienbildung, theologische Tiefenschärfung und Orientierung für die Praxis.

Kriterien verantworteter Nutzung

Angesichts dieser Vielfalt braucht es dennoch gemeinsame Leitlinien, die Orientierung geben – ohne die Unterschiede einzuebnen. Die folgenden Überlegungen versuchen, solche Leitlinien zu formulieren.

Transparenz.
Es muss kenntlich gemacht werden, wo und wofür KI eingesetzt wird. Entscheidend ist nicht, ob KI-Nutzung für Außenstehende erkennbar wäre, sondern dass sie offen benannt wird. Verdeckte Nutzung untergräbt Vertrauen und beschädigt Glaubwürdigkeit.

Klare Zuschreibung von Verantwortung.
KI trägt keine Verantwortung. Auch wenn KI zur Vorbereitung oder Unterstützung von Entscheidungen genutzt wird, bleibt Verantwortung beim Menschen – für Auswahl, Gewichtung, Interpretation und Veröffentlichung.

Bewusstsein zentraler Differenzen.
Glaube als existenzielles Vertrauen ist nicht identisch mit seiner sprachlichen Darstellung. KI kann Glaubenssprache erzeugen und reproduzieren, aber keinen Glauben vollziehen oder verantworten. Diese Differenz ist im Umgang mit KI bewusst zu halten.

Bewusste Entscheidungsmomente.
Nicht alles, was technisch möglich ist, sollte genutzt werden. Verantwortung zeigt sich auch darin, Einsatzmöglichkeiten zu begrenzen oder bewusst darauf zu verzichten, wenn Kontext, Beziehung oder Aufgabe dies nahelegen.

Sensibilität für Normalisierung und Macht.
KI prägt Sprache, Deutungsmuster und Plausibilitäten. Was häufig vorgeschlagen wird, erscheint schnell selbstverständlich. Gerade deshalb ist zu prüfen, welche Deutungen sich durchsetzen und welche aus dem Blick geraten.

Kennzeichnung von Vorläufigkeit.
Theologische Texte dürfen tastend, vorläufig oder zugespitzt sein. Wo KI zur Texterstellung beiträgt, ist diese Vorläufigkeit besonders bewusst kenntlich zu halten, um Offenheit für Weiterdenken und Korrektur zu sichern.

Diese Kriterien sind keine Zusatzlast, sondern praktische Leitplanken. Sie ersetzen keine kontextbezogenen Entscheidungen, helfen aber, den Einsatz von KI im kirchlichen Alltag verantwortlich zu gestalten.

Technische Rahmenbedingungen und digitale Souveränität

Verantwortlicher Umgang mit KI lässt sich langfristig nicht ohne geklärte technische Rahmenbedingungen sichern. Fragen von Datenschutz, Datenhoheit, Zugriffsrechten und Plattformabhängigkeiten sind nicht nur technische, sondern auch organisatorische und rechtliche Voraussetzungen verantwortlicher Praxis.

Gerade deshalb ist die Kirche hier gefordert, über punktuelle Einzelentscheidungen hinauszukommen. Sie muss stärker in eigene Kompetenzen, verlässliche Infrastrukturen und klare Regelungen investieren, um Nutzung nicht nur zu erlauben, sondern verantwortlich zu ermöglichen. Digitale Souveränität ist kein Selbstzweck, sondern Voraussetzung dafür, dass Verantwortung nicht ins Leere läuft.

Ausblick

Ziel ist keine unbedarfte, aber auch keine ängstliche Kirche. Es geht um eine Kirche, die den Dialog wachhält, neue Werkzeuge ausprobiert und prüft, ohne sich von ihnen bestimmen zu lassen.

KI kann theologische Arbeit anregen und erweitern. Sie nimmt dem Menschen weder das Denken noch den Glauben ab. Ich nutze diese Werkzeuge gern. Manchmal irritieren sie, oft klären sie, fast immer verschieben sie meinen Blick. Sie bringen mein theologisches Nachdenken in Bewegung. In diesem Sinn ist der Umgang mit KI für mich eine Entdeckungsreise – ein spannendes Gespräch.

Hinweis: Dieser Text ist unter Nutzung einer KI entstanden. Die tragenden Gedanken, Überzeugungen und theologischen Setzungen stammen vom menschlichen Autor; die KI war Werkzeug und Resonanzraum.

Theologie im Dialog mit KI

Beitragsnavigation


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert