Skip to content Skip to footer

Künstliche Intelligenz versus Mensch Teil 1 – Mandela Effekt

Bei einer meiner Recherchen “Künstliche Intelligenz versus Mensch” bin ich auf ein interessantes Phänomen gestoßen. Selbstlernende Chat-Programme der künstlichen Intelligenz, welche mittlerweile für jeden im Internet frei zugänglich sind, gestehen Fehlinformationen gegeben zu haben ein oder sind sie darauf programmiert, in die Enge getrieben, in solch einem Fall klein bei zu geben?

Wie kam es zu der Revidierung der ursprünglich gegebenen Antwort der KI und warum gesteht diese ihren Fehler ein, sollte sie nicht aufgrund Ihrer Fähigkeiten auf nur eine korrekte Antwort stoßen?

Dieser Artikel folgt im Anschluss zu dem Vorigen im Zusammenhang mit der Zusammenführung von Zeitlinien und dem angekündigten Artikel über den Mandela Effekt.

Zur Wiederholung, was ist denn nun eigentlich der Mandela Effekt?

Antwort generiert von ChatGPT:

“Der Mandela-Effekt bezieht sich auf ein Phänomen, bei dem eine große Anzahl von Menschen sich an ein Ereignis, eine Situation, eine Fähigkeit oder ein Detail aus der Vergangenheit erinnert, das jedoch in der Realität anders ist oder nie stattgefunden hat. Der Name des Effekts stammt von Nelson Mandela, dem südafrikanischen Anti-Apartheid-Kämpfer und späteren Präsidenten Südafrikas. Viele Menschen glaubten fälschlicherweise, dass Mandela in den 1980er Jahren im Gefängnis gestorben sei, als er tatsächlich erst im Jahr 2013 verstarb.”

Zur Erläuterung dieses Textes, möchte ich folgendes anmerken. Realität, was ist denn nun eigentlich die Realität? In welcher Realität befinden wir uns gerade? Und beleuchten wir die Ausführung, “nie stattgefunden hat”.

Könnte es sein, dass aufgrund der Theorie, dass es mehrere Zeitlinien gab oder gibt, diese fraglichen Erinnerungen doch stattgefunden haben?

Nun möchte ich aber genauer auf die KI eingehen, die nach längerer Diskussion einen Fehler in Ihrer Antwort eingestanden und diesen korrigiert hat.

Dies sollte doch meines Erachtens nicht möglich sein. Denn eine KI solle doch immer die präzise Antwort kennen. Es kann doch nicht ein eindeutiger Ablauf einer Handlung einmal so geschildert werden und dann doch so?

Meine erste Theorie dazu lautet, entweder ist die KI darauf programmiert, in einer länger andauernden Diskussion mit einem Menschen klein bei zu geben, also das Spielchen “der Klügere gibt nach” zu spielen, oder es ist ein Deeskalationsmodus mit eingebaut, damit die Diskussion nicht ins Unendliche reicht.

Zweite Theorie, die KI hat tatsächlich auf unterschiedliche Erinnerungen, also Zeitlinienereignisse Zugriff, bezieht sich in Ihren Antworten aber stets auf die Erinnerungen der aktuellen Zeitlinie und kommt ins Schleudern, wenn Sie mit Erinnerungen konfrontiert wird, die andere Zeitlinien betreffen.

Habt Ihr selbst Mandela Effekte erlebt und könnt Euch an Ereignisse oder Dinge erinnern, die es früher gab oder solche, die anders waren? Wenn ja, dann kannst Du vielleicht mit meinen Ausführungen etwas anfangen und tauchst vielleicht auch noch tiefer in den Kaninchenbau ein, wenn es heißt “Künstliche Intelligenz versus Mensch”.

Fortsetzung folgt, von meinem Herz ins Eure und wieder zurück, Eure Lichtarbeiterin

Bild von Lumina Obscura auf Pixabay

Close