Kapitel VIII · § 8.1 · Entscheidung und Orientierung · 12 Min Lesezeit

ChatGPT für die Bachelorarbeit — Möglichkeiten und Grenzen

Was Large Language Models im akademischen Schreiben leisten — und wo sie scheitern

Julius Wittenberg

2026-04-24 · Lesezeit: ca. 12 Minuten


Abstract

ChatGPT und vergleichbare Sprachmodelle haben das Schreiben verändert — auch das wissenschaftliche. Studierende stehen vor einer Frage, die kein Lehrbuch beantwortet: Wo hilft das Werkzeug, wo schadet es? Dieser Artikel ordnet die Möglichkeiten von ChatGPT in der Bachelorarbeit nüchtern ein. Er beschreibt, welche Aufgaben das Modell zuverlässig leistet, wo systematische Schwächen liegen — Halluzinationen erfundener Quellen sind das prominenteste Beispiel — und wie ein Workflow aussieht, der die Stärken nutzt, ohne die wissenschaftliche Eigenleistung zu unterlaufen. Außerdem: die rechtliche Einordnung in der deutschen Hochschulpraxis und ein Vergleich mit Alternativen wie Claude, Perplexity und Elicit.

Schlüsselwörter: ChatGPT · Large Language Model · Halluzinationen · wissenschaftliches Schreiben · Bachelorarbeit · KI-Werkzeuge · Workflow

ChatGPT als Werkzeug einordnen

ChatGPT ist seit Ende 2022 öffentlich verfügbar und hat sich seither zum bekanntesten Vertreter einer Technologie-Familie entwickelt, die in der Forschung als Large Language Models (LLMs) bezeichnet wird. Diese Modelle erzeugen Text, indem sie auf Basis riesiger Trainingsdaten das jeweils wahrscheinlichste nächste Wort prognostizieren. Was so beschrieben technisch nüchtern klingt, wirkt in der Anwendung oft erstaunlich: Das Modell schreibt grammatikalisch korrekte, stilistisch flüssige und thematisch passende Texte zu einer breiten Palette an Eingaben.

Diese Fähigkeit wird in Studierendengruppen unterschiedlich bewertet. Die einen sehen in ChatGPT einen Schreibassistenten, der lästige Routinen abnimmt; die anderen einen Abkürzungsweg um die wissenschaftliche Eigenleistung herum. Beide Perspektiven greifen zu kurz. Wer ChatGPT realistisch einordnen möchte, muss zwischen Hilfsfunktion und Substitut unterscheiden — und genau benennen, wo das Modell hilft und wo es das Eigentliche der wissenschaftlichen Arbeit ersetzen würde.

Der vorliegende Artikel nimmt diese Trennung ernst. Er beschreibt nicht, wie ChatGPT eine Bachelorarbeit »ersetzt«, sondern wie es eine selbst geschriebene Arbeit besser machen kann. Diese Differenz ist nicht moralisch gemeint, sondern praktisch: Eine Arbeit, deren Argumentation, Methodik und Quellenbasis vom Modell stammt, ist keine wissenschaftliche Eigenleistung — und sie ist, in der Mehrzahl der Fälle, auch keine gute Arbeit. Was eine gute Arbeit ausmacht, sind Originalität, Tiefe und überprüfbare Quellen. Genau diese drei Punkte liefert ChatGPT systematisch nicht.

Was ChatGPT zuverlässig leistet

Eignungsmatrix: ChatGPT für wissenschaftliche Aufgaben Eine Matrix mit zwei Spalten — »Geeignet« und »Ungeeignet« — und Aufzählungen der Aufgaben, die ChatGPT zuverlässig oder unzuverlässig erledigt. Geeignet sind formale und unterstützende Aufgaben wie Umformulierungen, Brainstorming, Strukturvorschläge, Erklärungen. Ungeeignet sind inhaltliche und methodische Aufgaben wie Quellen zitieren, originäre Analyse, methodische Entscheidungen, statistische Auswertung. Eignungsmatrix für ChatGPT Geeignet Ungeeignet › Brainstorming und Ideenfindung Erste Themenrichtungen, Aspekte, Perspektiven. › Strukturvorschläge Gliederungsentwürfe, Argumentationslinien. › Umformulierung und Stil Sätze straffen, Wiederholungen entfernen. › Erklärung von Konzepten Begriffe verständlich aufschlüsseln. › Grammatik- und Tippfehler Korrekturlesen auf formaler Ebene. › Übersetzungen aus Fremdsprachen Englische Quellen vorübersetzen lassen. › Quellen finden und zitieren Erfindet Titel, Jahre, DOIs (Halluzinationen). › Originäre Analyse Eigenständige Argumentation am Datenmaterial. › Methodische Entscheidungen Wahl der Methode, Stichprobe, Codierung. › Statistische Auswertung SPSS-Analysen, Hypothesentests, Interpretation. › Aktuelle Fachliteratur (≤ 18 Mon.) Trainingsstand begrenzt die Aktualität. › Domänenspezifische Tiefe Spezielle Forschungsdebatten, Detailwissen. Hilfsfunktion ja, Substitut nein.
Abbildung 1: Eignungsmatrix für ChatGPT in der Bachelorarbeit. Die linke Spalte enthält Aufgaben, bei denen das Modell zuverlässig hilft; die rechte Spalte solche, bei denen es systematisch enttäuscht.

ChatGPT ist ein verlässlicher Sparringpartner für die formale und konzeptionelle Vorarbeit. Wer einen ersten Themenkorridor sucht, kann das Modell als Ideengenerator einsetzen: »Welche soziologischen Perspektiven gibt es auf das Phänomen X?« liefert eine brauchbare Übersicht, aus der sich eine eigene Forschungsfrage destillieren lässt. Wer eine Gliederung entwirft, kann mehrere Strukturvarianten vorschlagen lassen und die geeignete auswählen. Wer einen Satz unklar formuliert hat, bekommt Vorschläge, wie er klarer wird.

Ähnlich produktiv ist die Erklär-Funktion. Schwierige Konzepte aus der Fachliteratur — etwa eine bestimmte ökonomische Theorie, ein statistisches Verfahren oder ein soziologischer Begriff — kann ChatGPT in eigenen Worten verständlich machen. Das ist kein Ersatz für die Lektüre der Originalquelle, aber ein guter Einstieg, der die anschließende Lektüre beschleunigt. Auch Übersetzungen aus dem Englischen ins Deutsche oder umgekehrt funktionieren auf hohem Niveau, sofern keine fachsprachlichen Spezialbegriffe gefragt sind, die das Modell nicht kennt.

Schließlich übernimmt ChatGPT zuverlässig formale Korrekturen: Tippfehler finden, Kommasetzung prüfen, stilistische Wiederholungen aufzeigen, einen zu langen Satz in zwei kurze zerlegen. Diese Aufgaben sind nicht inhaltlicher Natur, und genau deshalb funktioniert das Modell hier besonders gut: Es muss nichts verstehen, sondern nur Muster erkennen.

Was ChatGPT systematisch falsch macht

Die Schwächen liegen dort, wo eine wissenschaftliche Arbeit ihre Substanz hat: in der Quellenbasis und in der originären Analyse. Beides leistet ChatGPT nicht zuverlässig — und beides liegt nicht an einer behebbaren Lücke, sondern an der Architektur der Technologie selbst.

Das prominenteste Problem sind Halluzinationen. ChatGPT erzeugt Texte auf Basis statistischer Wahrscheinlichkeit, nicht auf Basis verifizierten Wissens. Fragt man nach einer Quelle zu einem Thema, liefert das Modell häufig einen Autor, einen Titel, ein Jahr und eine Zeitschrift — und alle vier Angaben können erfunden sein. Der Autor existiert, aber er hat den genannten Aufsatz nie geschrieben. Die Zeitschrift existiert, aber der Band 47 hat keinen Aufsatz dieses Titels. Die DOI sieht aus wie eine echte DOI, führt aber ins Leere. In studentischen Arbeiten sind solche erfundenen Referenzen ein zuverlässiges Aufdeckungsmerkmal: Eine Betreuerin, die eine Quelle prüft, findet sie nicht — und stellt die Glaubwürdigkeit der gesamten Arbeit infrage.

Die zweite systematische Schwäche ist die fehlende Aktualität. Sprachmodelle haben einen Trainingsstand, der zum Zeitpunkt der Nutzung typischerweise einige Monate bis über ein Jahr zurückliegt. Aktuelle Fachliteratur ab dem Cut-off-Datum kennt das Modell nicht — es füllt Lücken oft mit plausiblen Vermutungen, die als Tatsachen formuliert werden. Wer eine Bachelorarbeit auf den aktuellen Forschungsstand beziehen muss, kann ChatGPT für diese Aufgabe nicht nutzen.

Drittens fehlt dem Modell die originäre Analyse. Eine eigene Argumentation auf Grundlage des konkreten Datenmaterials — der Interviews, des Datensatzes, der Beobachtungen, die in dieser einen Arbeit erhoben wurden — kann ChatGPT nicht leisten. Es kann eine Argumentation generieren, die plausibel klingt, aber sie ist nicht aus den Daten gewonnen. Wer eine empirische Arbeit schreibt, muss diesen Schritt selbst tun.

Viertens treffen Sprachmodelle in spezialisierten Feldern oft fachlich falsche Aussagen. Sie kennen die großen Linien, übersehen aber Detailkontroversen. In einer Arbeit zu einem Spezialthema fällt eine erfahrene Betreuerin sofort auf, dass Aussagen zwar wohlformuliert, aber inhaltlich unscharf sind — ein typisches Stilmuster KI-erzeugter Texte.

Halluzinationen — warum sie so hartnäckig sind

Die Halluzinationen verdienen einen eigenen Blick, weil sie das Vertrauen in das Werkzeug an der entscheidenden Stelle untergraben. Sie sind kein Bug, der mit einem Update verschwindet, sondern eine Eigenschaft der Technologie. Ein Sprachmodell hat keine Repräsentation von »wahr« und »falsch«; es hat eine Repräsentation von »wahrscheinlich« und »unwahrscheinlich«. Eine erfundene Quelle, die plausibel klingt, hat in der Welt des Modells eine ähnliche Wahrscheinlichkeit wie eine echte Quelle, die ähnlich klingt.

Praktisch bedeutet das: Jede Quellenangabe aus ChatGPT muss verifiziert werden. Die Verifikation läuft am sichersten über die institutionellen Datenbanken der Universitätsbibliothek, über Google Scholar oder über die Webseite des angeblichen Verlags. Wer eine Quelle nicht innerhalb weniger Minuten in einer dieser Quellen findet, sollte sie als erfunden behandeln und aus der Arbeit entfernen.

Aktuelle Versionen mit Web-Suche oder direktem Zugriff auf wissenschaftliche Datenbanken reduzieren das Halluzinationsproblem, lösen es aber nicht. Auch eine modellseitige Suche kann Quellen falsch zuordnen, Aussagen aus dem Kontext reißen oder Sekundärquellen für Primärquellen ausgeben. Die Regel »jede Quelle prüfen« bleibt — sie verändert nur den Zeitaufwand.

Ein sinnvoller Workflow

Aus Stärken und Schwächen ergibt sich ein praktikabler Workflow. Er folgt dem Grundsatz, ChatGPT als Hilfsmittel im Schreibprozess, nicht als Autor zu nutzen. Konkret bedeutet das:

Vor dem Schreiben. Themen erkunden, Begriffe klären lassen, eine erste Gliederung skizzieren, Forschungsfragen aus verschiedenen Perspektiven formulieren. Hier ist das Modell am produktivsten, weil keine Quellen verlangt sind und Eigenarbeit unmittelbar anschließt.

Während des Schreibens. Eigene Texte vorlegen und um Rückmeldung bitten: »Welche Argumente fehlen?«, »Wo ist die Logik unklar?«, »Wo wiederholt sich der Inhalt?« Diese Sparring-Funktion ist deutlich produktiver als die Bitte »schreibe mir einen Absatz zu X«, weil sie die eigene Argumentation schärft, statt sie zu ersetzen.

Nach dem Schreiben. Korrekturlesen, Stilcheck, Verbesserungsvorschläge auf Satzebene. Hier ist das Risiko von Inhaltsentfremdung gering, der Nutzen oft hoch.

Nicht delegieren. Methodische Entscheidungen, Quellenarbeit, Datenauswertung, originäre Analyse. Diese Schritte gehören in die menschliche Hand, weil hier die wissenschaftliche Eigenleistung entsteht — und weil hier die Schwächen des Modells am gefährlichsten werden.

Wer den Workflow konsequent so führt, hält die Bachelorarbeit als eigene Leistung — und zwar nicht nur formal, sondern substanziell. Die Arbeit gewinnt an Schärfe, weil das Modell als Resonanzkörper wirkt; sie verliert nichts, weil die Substanz beim Verfasser bleibt.

Rechtliche Einordnung in der deutschen Hochschulpraxis

Die rechtliche Lage ist in Deutschland im Fluss. Eine bundeseinheitliche Regelung, ob und wie KI-Werkzeuge in Prüfungsleistungen genutzt werden dürfen, gibt es derzeit nicht. Stattdessen erlassen einzelne Hochschulen, Fakultäten oder Prüfungsämter eigene Regelungen, die voneinander abweichen können. Maßgeblich ist die Prüfungsordnung der eigenen Hochschule und die Ankündigung des Lehrstuhls.

Drei Linien zeichnen sich in der Praxis ab. Erstens: Eine wachsende Zahl von Hochschulen verlangt eine KI-Nutzungserklärung, in der Studierende offenlegen, ob und wofür sie ein Sprachmodell genutzt haben. Zweitens: Verboten ist in der Regel die Übernahme generierter Textstellen ohne Kennzeichnung; erlaubt sind in vielen Ordnungen Hilfsfunktionen wie Korrekturlesen, Übersetzung oder Brainstorming. Drittens: Die eidesstattliche Erklärung verlangt, die Arbeit selbstständig verfasst zu haben — wer das Sprachmodell als Autor nutzt, gibt eine falsche Versicherung ab, ähnlich wie bei nicht offengelegtem Ghostwriting.

Der vorsichtige Weg ist klar: die Prüfungsordnung lesen, im Zweifel beim Lehrstuhl nachfragen, eine ehrliche Eigenerklärung abgeben. Wer ChatGPT als Hilfsmittel im hier beschriebenen Sinn nutzt — Brainstorming, Stil, Korrektur — steht in der Regel auf gesichertem Boden, sofern er es offenlegt.

Alternativen jenseits von ChatGPT

Der Markt ist breiter, als es die öffentliche Aufmerksamkeit auf ChatGPT vermuten lässt. Drei Werkzeuge sind im akademischen Kontext besonders relevant.

Claude von Anthropic ist ChatGPT in vielen Aufgaben ähnlich, gilt aber als zurückhaltender bei Halluzinationen und besser bei längeren Texten. Für Aufgaben, die einen langen Eingabetext verarbeiten — etwa eine Zusammenfassung eines vollständigen Aufsatzes — ist Claude in der Praxis oft die bessere Wahl. Die Grundproblematik der erfundenen Quellen bleibt aber bestehen.

Perplexity ist anders konzipiert: Statt aus dem Trainingswissen zu antworten, sucht es zuerst im Web und erzeugt die Antwort entlang der gefundenen Quellen. Jede Aussage ist mit einem Link zur Originalquelle versehen, was die Verifikation erleichtert. Für Recherche zu aktuellen Themen ist Perplexity ChatGPT vorzuziehen. Für die wissenschaftliche Arbeit ist allerdings auch hier eine eigene Quellenprüfung Pflicht — die verlinkten Quellen sind oft Online-Artikel, nicht peer-reviewte Fachliteratur.

Elicit ist auf akademische Recherche spezialisiert. Es durchsucht eine Datenbank wissenschaftlicher Aufsätze und beantwortet Forschungsfragen mit Bezug zu echten, verifizierbaren Studien. Für Literaturrecherche ist Elicit ein deutlich seriöserer Einstieg als ChatGPT. Die ergänzende Lektüre der gefundenen Aufsätze bleibt notwendig, aber die Trefferqualität ist auf einem akademisch brauchbaren Niveau.

Die Wahl des Werkzeugs hängt vom Anwendungszweck ab. Für Stil und Struktur: ChatGPT oder Claude. Für aktuelle Recherche: Perplexity. Für Literatursuche: Elicit oder die institutionelle Bibliothek. Eine bewusste Trennung der Werkzeuge nach Aufgabe schützt vor der Versuchung, alle Schritte einem einzigen Tool zu überlassen.

Beispielhafte Nutzung — ein Abstract verbessern

Ein konkretes Beispiel verdeutlicht das Prinzip. Eine Studierende hat den ersten Entwurf eines Abstracts verfasst und ist unzufrieden mit der Klarheit. Sie kopiert den Text in ChatGPT mit der Anweisung: »Bitte gib mir Rückmeldung, an welchen Stellen die Argumentation unklar ist und welche Sätze gestrafft werden können. Bitte schreibe den Text nicht neu.«

Die Antwort enthält drei konkrete Stellen, an denen das Modell Unklarheit identifiziert: einen Begriffsmix zwischen »quantitativ« und »empirisch«, einen Schachtelsatz mit zwei Nebenbedanken, eine fehlende Verbindung zwischen Forschungsfrage und Methode. Die Studierende überarbeitet den Text auf Basis dieser Hinweise selbst — sie wählt die Formulierungen, sie entscheidet, welche Hinweise sie übernimmt. Der finale Abstract ist klarer, bleibt aber ihr eigener Text. Diese Form der Nutzung ist methodisch sauber, dokumentierbar und in der überwiegenden Mehrzahl der Hochschulordnungen unproblematisch.

Der Gegenfall: Die Studierende fordert das Modell auf, einen vollständigen Abstract aus drei Stichpunkten zu schreiben, übernimmt das Ergebnis ohne Überarbeitung und gibt es als eigene Arbeit aus. Hier verschwimmt die Grenze. Der Text trägt die Stilmuster des Modells — eine bestimmte Glätte, eine bestimmte Argumentationsstruktur, eine gewisse stilistische Anonymität. Erfahrene Betreuende erkennen das oft. Vor allem aber: Es ist nicht mehr die eigene Leistung der Studierenden.

Zusammenfassung

ChatGPT ist ein nützliches Werkzeug für die Bachelorarbeit, wenn man es als Werkzeug behandelt. Die Stärken liegen in formaler und konzeptioneller Vorarbeit: Brainstorming, Strukturvorschläge, Stilkorrekturen, Erklärungen. Die Schwächen liegen dort, wo wissenschaftliche Arbeit ihre Substanz hat: bei Quellen, originärer Analyse, methodischer Tiefe und aktueller Fachdebatte. Ein Workflow, der die Stärken nutzt und die Schwächen umgeht, behandelt das Modell als Sparringpartner, nicht als Autor — und prüft jede Quellenangabe selbst. Rechtlich gilt: Die Prüfungsordnung der eigenen Hochschule lesen, im Zweifel offenlegen, die eidesstattliche Erklärung ehrlich abgeben. Wer das beachtet, gewinnt durch ChatGPT eine spürbare Schreib-Effizienz, ohne die wissenschaftliche Eigenleistung zu unterlaufen. Wer es ignoriert, riskiert nicht nur die Note, sondern den Verlust dessen, was eine Bachelorarbeit eigentlich leisten soll: das eigenständige Denken über ein Thema.

Sie planen eine Bachelorarbeit und möchten den Schreibprozess fundiert begleiten lassen — auf wissenschaftlichem Niveau, transparent und vertraulich?

Kostenlos anfragen WhatsApp →