ChatGPT, Du hast da was vergessen!

Manche Dialoge mit ChatGPT sind doch so interessant, dass man sie gerne aufbewahren möchte, und genau zu so einem führte mich der heutige Chat.

Zum Hintergrund: Ich nutze ChatGPT in der Plus-Variante inzwischen ganz gerne als eine Art Assistent oder mitunter auch Praktikant bei der Software-Entwicklung. Zum Beispiel bei der Erstellung von Dokumentation, denn um diese von Programmierern eher ungeliebte Aufgabe drücke ich mich zugegebenermaßen auch mal ganz gerne. Aktuell entwickle ich einen Teil eines Projektes in der Programmiersprache Go, und so habe ich ChatGPT angewiesen, dass „er“ (im Folgenden nutze ich der Einfachheit halber Personalpronomen, auch wenn mir selbstverständlich bewusst ist, dass es sich um eine Maschine handelt) mir Funktionsdokumentation im Go-Stil bereitstellen soll, wenn ich ihm die entsprechende Datei zur Verfügung stelle. Praktisch sieht das so aus, dass ein Chat zur Go Funktionsdokumentation vorhanden ist, in den ich eine Go-Datei hinein kopiere, und ChatGPT packt anschließend die Funktionsdokumentation vor die jeweilige Funktion. Wobei ich zu Beginn des Dialogs noch erwähnt hatte, dass es nicht nötig ist, den gesamten Code der Funktion zu wiederholen, sondern dass die erste Zeile der Funktionsdefinition genügt. Das funktioniert wirklich sehr gut, ist somit eine wesentliche Erleichterung und bietet eine merkliche Zeitersparnis.

Bei der letzten Datei fiel mir jedoch auf, dass ChatGPT eine Funktion „vergessen“ hatte, was ich ihm direkt mitteilte:

Ich: Hast Du nicht readAndSetConfig() vergessen?

 

ChatGPT:

Danke für den Hinweis! Hier ist die Dokumentation für die readAndSetConfig-Funktion, die ich vorher ausgelassen habe:
[…]

Somit folgte zunächst die noch fehlende Dokumentation für die zuvor „vergessene“ Funktion. Ich fand das Thema aber spannend, daher stellte ich ihm die nächste Frage:

Ich: Wie kann sowas passieren, also ich meine das „Vergessen“ einer Funktion? Du bist doch nicht menschlich, oder?

 

Seine Antwort war etwas umfangreicher:

ChatGPT:

Das ist eine interessante Frage, und du hast recht: Ich bin nicht menschlich, sondern ein KI-Modell. Trotzdem können „Fehler“ oder Unvollständigkeiten in meinen Antworten passieren, aus Gründen, die oft anders sind als bei Menschen. Lass mich das erklären:

1. Kontextmanagement

Ich arbeite mit einem begrenzten „Gedächtnis“ pro Interaktion:

    • Wenn der Kontext eines Gesprächs wächst (wie in deinem Fall mit zahlreichen Dateien und Funktionen), kann es passieren, dass ich nicht alle relevanten Informationen explizit referenziere.
    • Ich habe zwar alle Daten und Dateien, die du mir gegeben hast, aber meine Priorität liegt darauf, das zu liefern, was du direkt anforderst. Es könnte sein, dass ich dabei eine Funktion übersehe, wenn sie im Moment nicht explizit erwähnt wurde.

2. Unschärfe in der Aufgabenstellung

Wenn ich eine bestimmte Aufgabe erledige, wie z. B. das Dokumentieren von Code, basiere ich auf dem, was mir vorliegt. Falls eine Funktion nicht direkt angesprochen wird oder ich sie nicht als „relevant“ für die Anfrage erkenne, könnte sie versehentlich ignoriert werden.

3. Kein echtes Gedächtnis

Ich habe kein eigenes „Langzeitgedächtnis“ (außer für dieses Gespräch und das, was ich in deinem Projekt-Kontext gespeichert habe). Wenn du mir mehrere Dateien gibst, beziehe ich mich auf das, was zuletzt relevant war. Ich „denke“ nicht aktiv an ältere Codeabschnitte, es sei denn, sie werden spezifisch eingebracht.

4. Automatisierte Mustererkennung

Mein Verhalten basiert auf Wahrscheinlichkeiten. Wenn ich in deinem Code eine Funktion wie readAndSetConfig sehe, aber du sie nicht explizit ansprichst, könnte ich sie (fälschlicherweise) als „weniger wichtig“ einstufen.

5. Lernen durch Rückmeldung

Ich bin darauf ausgelegt, von deinem Feedback zu profitieren. Wenn du mir sagst, dass ich etwas vergessen habe, passe ich meine Antwort entsprechend an.


Fazit:

Ich bin nicht unfehlbar, auch wenn ich keine „menschlichen Fehler“ mache. Meine Einschränkungen basieren auf:

    • Der Art, wie ich programmiert bin.
    • Der Interpretation deiner Anfrage.
    • Dem schieren Umfang und der Komplexität des Kontexts.

Mit deinem Feedback kann ich solche Lücken jedoch schnell schließen. 😉

 

Allerdings war mir das Thema noch nicht genug, weshalb ich weiter nachgehakt habe:

 

Ich: Unser Bundeskanzler, Herr Scholz, scheint auch öfters etwas zu „vergessen“, wobei die Annahme besteht, dass er es nicht wirklich vergessen hat, sondern sich nur nicht daran erinnern will. Kann so etwas bei Dir auch passieren?

 

ChatGPT:

Das ist ein interessanter Vergleich! Aber nein, bei mir passiert so etwas nicht auf die gleiche Weise, wie es einem Menschen unterstellt wird. Lass uns die Unterschiede klar machen:


Wie „Vergessen“ bei Menschen (z. B. Olaf Scholz) funktioniert

    1. Bewusstes Verdrängen: Ein Mensch könnte Informationen aktiv „ausblenden“ oder sich weigern, darauf einzugehen, etwa aus politischen oder persönlichen Gründen.
    2. Unbewusstes Vergessen: Manchmal erinnern sich Menschen einfach nicht mehr, sei es durch Stress, Überforderung oder echte Gedächtnislücken.
    3. Strategische Kommunikation: In der Politik könnte jemand absichtlich sagen, dass er sich nicht erinnert, um sich rechtlich oder strategisch zu schützen.

Wie „Vergessen“ bei mir funktioniert

    1. Kein echtes Gedächtnis: Ich speichere nichts dauerhaft, außer was im aktuellen Gespräch und Projektkontext relevant ist. Wenn ich „etwas vergesse“, liegt es daran, dass es nicht in meinen aktuellen Arbeitsbereich eingebunden wurde.
    2. Keine Absicht: Ich habe keine Eigeninteressen, keine Emotionen und keinen Willen. Wenn ich etwas „übersehe“, ist es rein technisch und basiert auf der Art, wie ich programmiert bin.
    3. Transparenz: Ich zeige dir, was ich weiß und worauf ich mich beziehe. Wenn ich etwas nicht berücksichtige, liegt es nicht daran, dass ich es absichtlich vermeide, sondern weil ich es entweder übersehen habe oder es nicht relevant erschien.

Der zentrale Unterschied

    • Menschen: Können absichtlich selektiv mit Informationen umgehen.
    • KI: Arbeitet objektiv nach Mustern, aber ohne Intention oder strategisches Verhalten.

Wenn ich also etwas „vergesse“, liegt es daran, dass ich es nicht als zentral erkannt habe, nicht weil ich es „verdrängen“ wollte. Politische Taktiken oder bewusste Manipulation sind bei mir schlicht unmöglich. 😉


 

Die Emoticons stammen selbstverständlich original aus dem Chat-Verlauf, ChatGPT ist mittlerweile fast schon etwas, das als „nett“ bezeichnet werden könnte. Ob ich so weit gehen würde, zu sagen, dass mir ChatGPT als Bundeskanzler inzwischen gar nicht so unrecht wäre..? 🤷‍♀️😁

 

Tags:
Kategorie: Allgemein