Magazin
Beratungstermin
Loading ...

KI in der Schule – Teil 3: Anthropomorphismus

Begriffsklärung

Anthropomorphismus ist als Phänomen vielleicht so alt, wie der sich selbst erkennende Mensch. Der Begriff bedeutet, menschenähnliche Eigenschaften, Gefühle oder Verhaltensweisen auf etwas zu übertragen, das kein Mensch ist. Dies kann Tiere, Objekte, natürliche Phänomene oder sogar Künstliche Intelligenz (KI) umfassen. Zweifellos handelt es sich um eine zutiefst menschliche Vorstellung, die ihre Höhepunkte in Mythen und Religionen gefunden hat.

In der Diskussion um Künstliche Intelligenz (KI) können die Zuschreibungen menschlicher Eigenschaften ein Problem werden: Wenn wir uns selbst als Menschen in der KI „spiegeln“, könnte dies am Ende dazu führen, dass wir eigentlich nur über uns selbst diskutieren. So fruchtbar diese Perspektive für den philosophischen Diskurs auch sein mag, setzen wir uns der Gefahr aus, dass wir eben nicht über Künstliche Intelligenz sprechen.

Moravec'sche Paradox

Das Moravec-Paradoxon ist eine Beobachtung von Hans Moravec aus den 1980er Jahren. Eine zeitgemäße Neuformulierung dieses Paradoxons könnte so lauten:

Es ist für Künstliche Intelligenz überraschend einfacher, komplexe, intellektuelle Aufgaben zu meistern, wie das Spielen von Schach auf hohem Niveau oder die Lösung von komplizierten mathematischen Gleichungen. Dagegen erweisen sich Aufgaben, die für Menschen alltäglich und einfach sind - wie das Erkennen und Greifen von Objekten, das Navigieren in unbekanntem Gelände oder das Erkennen von Emotionen bei anderen Menschen - für KI-Systeme als erstaunlich herausfordernd.

In der aktuellen Diskussion wird gelegentlich auf dieses Paradoxon Bezug genommen, um die Behauptung zu untermauern, dass das Paradoxon mit Hilfe der Künstlichen Intelligenz (KI) der heutigen Generation inzwischen überwunden ist.

Besondere Erkenntnisse vermittelt dieses Paradoxon nicht. Es wird aber deutlich, wie naheliegend es häufig ist, die menschlichen Eigenschaften und Fähigkeiten als Maßstab anzusetzen.

Turing-Test

Der Turing-Test ist ein Konzept, das von dem britischen Mathematiker Alan Turing vorgeschlagen wurde. In seiner Arbeit "Computing Machinery and Intelligence", die 1950 veröffentlicht wurde, schlug Turing einen Test vor, um die Fähigkeit einer „Maschine“ zu beurteilen, menschenähnliche Intelligenz zu demonstrieren.

Im ursprünglichen Turing-Test gibt es drei Teilnehmer: einen menschlichen Fragesteller, einen menschlichen Teilnehmer und eine Maschine. Diese Teilnehmer sind räumlich voneinander getrennt. Der Fragesteller kommuniziert mit den beiden anderen Teilnehmern über einen Textkanal (wie zum Beispiel einen Computerbildschirm und eine Tastatur). Der Fragesteller stellt Fragen und basierend auf den Antworten muss er entscheiden, welche der beiden anderen Teilnehmer der Mensch ist und welche die Maschine.

Wenn der Fragesteller nicht zuverlässig unterscheiden kann, ob die Antworten von einer Maschine oder einem Menschen kommen, dann würde man sagen, dass die Maschine den Turing-Test bestanden hat. Mit anderen Worten, die Maschine hat gezeigt, dass sie menschenähnliche Intelligenz besitzt.

Besondere Erkenntnisse vermittelt auch diese Versuchsanordnung nicht. Es wird aber deutlich, wie naheliegend es häufig ist, ein intuitives menschliche Urteil als Maßstab anzusetzen.

ELIZA

ELIZA war eines der ersten Computerprogramme, das eine menschenähnliche Interaktion simulieren konnte. Es wurde in der Mitte der 1960er Jahren von Joseph Weizenbaum am MIT (Massachusetts Institute of Technology) entwickelt.

Das bekannteste Skript, das Weizenbaum für ELIZA einsetzte, war DOCTOR, das als einfacher „Psychotherapeut“ arbeite. In diesem Modus sollte ELIZA die Aussagen des Benutzers einfach nur wiederholen oder sie in Fragen umformulieren, ähnlich wie ein Therapeut, der den Patienten dazu anregt, immer weiter zu reden.

Während ELIZA aufgrund seiner Fähigkeit, auf Eingaben zu reagieren, für viele Benutzer menschenähnlich wirkte, war es tatsächlich ein sehr einfaches Programm, das keine Fähigkeit zur Verarbeitung natürlicher Sprache oder zum Verständnis von Kontext hatte.

Weizenbaum selbst war überrascht und beunruhigt, wie leicht die Leute ELIZA für ein menschenähnliches Wesen hielten und persönliche Informationen preisgaben. Dies führte ihn zu kritischen Ansichten über die Folgen eines Einsatzes von KI und maschinellem Lernen, insbesondere in Bezug auf menschenähnliche Interaktionen.

Dialogfähigkeit

Wie lässt sich das heutige Level der Kommunikationsfähigkeit zwischen Mensch und „Computer“ beschreiben?

Die Dialogfähigkeit zwischen Mensch und Computer hat sich in den letzten Jahren dramatisch verbessert. Dies ist größtenteils auf Fortschritte in der Künstlichen Intelligenz und maschinellem Lernen zurückzuführen, insbesondere in einem Gebiet mit der Bezeichnung „Natural Language Processing (NLP)“. Hierbei handelt es sich um Technologien, die Computern das Verstehen, Interpretieren, Generieren und Manipulieren menschlicher Sprache ermöglichen.

Frühe Systeme, die menschenähnliche Kommunikation ermöglichten, waren meist regelbasiert und konnten nur vordefinierte Antworten auf bestimmte Eingaben liefern. Sie konnten sich nicht an Kontexte anpassen, keinen Zusammenhang zwischen verschiedenen Eingaben herstellen und hatten oft Schwierigkeiten, natürliche Sprache überhaupt zu verstehen.

Dies hat sich mit dem Aufkommen von Modellen wie GPT (Generative Pretraining Transformer) und seiner Nachfolger (z.B. GPT-3, GPT-4) stark verändert. Diese Modelle können durch Training auf massiven Datensätzen und die Verwendung komplexer Architekturen menschliche Sprache auf einer sehr detaillierten Ebene verstehen und generieren. Sie können kontextabhängige Antworten geben, verschiedene Formen von Sprache und sogar verschiedene Sprachen verstehen und in vielerlei Hinsicht sehr menschenähnliche Dialoge führen.

Wie wir KI begreifen, zeigt sich in der Sprache, die wir verwenden, um KI zu beschreiben.