KI imitiert Menschen: Turing-Test von OpenAIs GPT‑4.5 bestanden
Denkt Chat GPT ähnlich wie wir? In den Medien wurde berichtet, dass die Künstliche Intelligenz den Turing-Test bestanden hat. Bedeutet das, dass KI möglicherweise nicht mehr von einem Menschen zu unterscheiden ist?
Wissenschaftler der Universität Kalifornien in San Diego führten eine Studie durch, die zeigte, dass das Sprachmodell GPT-4.5 von OpenAI in 73% der Fälle mit einem Menschen verwechselt wurde. Der Turing-Test, der dies bestätigen sollte, basierte auf einem textuellen Gespräch mit einem Chatbot und einem Menschen gleichzeitig. Die Studie sollte untersuchen, ob die Teilnehmer einen Menschen von einer Maschine unterscheiden können.
Andere Modelle, wie LLaMa-3.1-405B, wurden ebenfalls getestet, jedoch wurden sie nur in 56% der Fälle mit Menschen verwechselt. Ältere Systeme, wie ELIZA und GPT-4o, waren deutlich weniger effektiv und führten nur in 23% bzw. 21% der Fälle zu falschen Identifikationen.
Der Turing-Test hat viele Debatten über Bewusstsein, Denken und die Grenzen der Künstlichen Intelligenz ausgelöst. Bis heute bleibt er eines der bekanntesten und umstrittensten Symbole in der Diskussion über die Beziehung zwischen Mensch und Maschine. Er wurde als ultimativer Indikator für Maschinenintelligenz populär gemacht, jedoch gibt es Streit darüber, was dieser Test genau misst und ob er tatsächlich geeignet ist, die Intelligenz von Maschinen zu bewerten.
Der Turing-Test wurde 1948 von Alan Turing, einem bekannten Informatiker, vorgestellt. Ursprünglich setzte der Test die Teilnahme von drei Personen voraus: zwei Spielern und einem Operator, die mit einer hypothetischen Maschine Schach spielen sollten. Dieses Experiment sollte das Spiel simulieren, und sein Schöpfer glaubte, es sei eine effektive Methode zur Beurteilung intelligenten Verhaltens von Maschinen.
Die Studie löste Diskussionen über die Grenzen der Künstlichen Intelligenz und deren Fähigkeit aus, menschliches Denken zu imitieren. Kritiker weisen auf die kurze Testdauer und die Tatsache hin, dass die KI eine bestimmte Persönlichkeit angenommen hat, was die Ergebnisse beeinflusst haben könnte.