• Frage: Kann ChatGPT eigenständige Entscheidungen machen?

    Frage gestellt KönigeEuropas am 27 Feb 2024. Diese Frage wurde auch von nans25tad gestellt.
    • Foto: Xenia Klinge

      Xenia Klinge Beantwortet am 27 Feb 2024:


      Ein Sprachmodell wie ChatGPT trifft ständig und ganz aus sich heraus Entscheidungen – aber wahrscheinlich nicht auf die Art wie hier gemeint. : )

      Genau genommen kann es nur eine Sache entscheiden: Welches Wort schreibe ich als nächstes in den Chat. Es hat nämlich auf riesigen Mengen von Textdaten alle Wörter angeguckt und Wahrscheinlichkeiten abgeleitet, dass auf eine bestimmte Kombination von Wörtern als nächstes ein anderes kommt. Und in jedem Gespräch entscheidet das Modell viele hundert Mal aufgrund dieser Wahrscheinlichkeiten, welches Wort es als nächstes schreibt.

      So kommt es auch, dass es viel wahrscheinlicher einen Satz schreiben würde wie „Der Himmel ist bewölkt“ als „Der Himmel ist Granit“, auch wenn das zweite aus einer poetischen Sicht vielleicht eindringlicher und schöner ist.

      Faszinierend an Sprachmodellen ist, dass sich von diesen grundsätzlichen Entscheidungen andere Entscheidungen ableiten lassen. So kann ChatGPT manchmal logisch korrekte Entscheidungen treffen wie bei der Frage „Was ist schwerer, ein Kilogramm Feder oder ein Kilogramm Eisen?“ (und dann in der Antwort wahrscheinlich gleich noch Masse und Gewicht erklären). Manchmal liegt das Modell aber auch total falsch mit der Entscheidung. Und beides ist letztlich das Ergebnis von Wahrscheinlichkeiten von Wörtern, plus zusätzliches Training.

      Was aber ganz gut klappt: ChatGPT kann dabei helfen Entscheidungen zu treffen. Wenn ich zum Beispiel wissen will, ob ich heute lieber Pizza oder Pasta esse, werde ich einen langen Text bekommen über verschiedene Kriterien, mit denen ich die Entscheidung selbst treffen kann.

    • Foto: Annegret Janzso

      Annegret Janzso Beantwortet am 27 Feb 2024:


      Xenia hat da schon eine ganz gute Antwort geliefert. Inwieweit solche Entscheidungen eigenständig sind, kann man aber diskutieren. Wann ist eine Entscheidung eigenständig? ChatGPT „entscheidet“ sich für ein Wort, basierend auf Berechnungen und Wahrscheinlichkeiten. Welches Wort kommt am wahrscheinlichsten hier hin? Man kann sich jetzt aber auch fragen, ob wir als Menschen so stark anders funktionieren, wenn wir Entscheidungen treffen. Wenn du an einer Kreuzung stehst, entscheidest du dich ja auch danach, in welche Richtung du gehst, mit der Überlegung, welche Richtung dich am schnellsten zu deinem Ziel bringt, oder welche Richtung den schönsten Weg hat. Das ist auch eine Entscheidung auf Grund von deinen Berechnungen und Wahrscheinlichkeiten, mit dem Unterschied, dass deine Entscheidung vermutlich weniger auf Zahlen basiert als die von ChatGPT.

    • Foto: Diana Schneider

      Diana Schneider Beantwortet am 27 Feb 2024:


      Was meinst Du mit „eigenständigen Entscheidungen“?
      ChatGPT ist ein Sprachmodell und kann aus natürlicher Sprache Antworten generieren, die für uns (in den meisten Fällen) ebenfalls wie natürliche Sprache klingt. Die Antwort setzt sich dabei aus wahrscheinlichen Textbausteinen zusammen – und das klingt zuweilen kreativ, langweilig oder auch überraschend. Dass ChatGPT so etwas kann, bedeutet aber nicht, dass ChatGPT richtige Antworten gibt, noch, dass es „entscheidet“ eine Antwort zu geben. Es ist schlicht ihre Aufgabe, eine Antwort zu geben. Wie sie das macht, hängt u.a. von der Temperatur, dem Modell, den Trainingsdaten und bisherigen „Erfahrungen“ ab, die sie gesammelt hat.

    • Foto: Ulrike Bohle-Jurok

      Ulrike Bohle-Jurok Beantwortet am 27 Feb 2024:


      Wenn zum Entscheiden Bewusstsein nötig ist, dann kann ChatGPT keine Entscheidungen treffen, denn ein Sprachmodell hat kein Bewusstsein. Das merkt man z.B. daran, dass es den Text, den es gerade eben geschrieben hat, nicht als eigenen Text erkennt. Zum Entscheiden gehört auch ein Wille oder eine Absicht, und auch das hat ChatGPT nicht.
      Aber was ich bisher nicht ausprobiert habe, ist, welche Antworten man bekommt, wenn man z.B. Fragen nach dem Geschmack stellt: „Magst Du lieber Erdbeer- oder Schokoeis?“ Vermutlich wird ChatGPT entweder antworten: „Ich bin eine KI und mag kein Eis.“ bzw. „Ich bin eine KI und gebe keine Geschmacksurteile ab.“ Oder es antwortet das, was statistisch die häufigere Antwort ist. Anscheinend steht Schokoeis auf Platz 2, Erdbeereis auf Platz 4 der Liste mit den Lieblingseissorten, also wird ChatGPT wohl Schokoeis angeben – probier es mal aus!

    • Foto: Knut Linke

      Knut Linke Beantwortet am 28 Feb 2024:


      Nein, dass geben die Fähigkeiten des Systems (noch) nicht her.

      Du könntest aber die Antworten von ChatGPT für Entscheidungen nutzen.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 28 Feb 2024:


      Wir neigen dazu, Worte, die für die Beschreibung menschlicher Handlungen entstanden sind, auf Technik wie KI anzuwenden, aber das passt eben oft nicht. Weder trifft ChatGPT Entscheidungen, noch trifft es sie eigenständig. ChatGPT ist ein Programm mit einer gewaltigen Datenbasis, die bei Eingabe eines Prompts in eine Ausgabe transformiert wird. Mehr ist da nicht. Es ist einfach, dies als „Entscheidung“ zu bezeichnen, aber das ist eine falsche Beschreibung.

Kommentare