• Frage: Was wäre wenn ein Roboter ( Kl) sich eine eigene Meinung bilden könnte und nicht von Menschen gesteuert werden?

    Frage gestellt Marlon am 21 Feb 2024. Diese Frage wurde auch von Henry gestellt.
    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 21 Feb 2024:


      Wie bei vielen ähnlichen Fragen möchte ich eine Gegenfrage stellen: Woran würde man erkennen, dass ein Roboter bzw. eine KI eine eigene Meinung hat? Wie misst man das? Erst, wenn man den Maßstab angibt, der hier angewendet werden soll, kann man die erste Frage beantworten.

    • Foto: Kai Naumann

      Kai Naumann Beantwortet am 21 Feb 2024:


      Es passiert ja schon, dass ChatGPT für Dich oder mich eine Meinung schreibt. ChatGPT wird dabei von niemandem gesteuert, nur von der Meinung aller anderen in den Trainingsdaten. So wie ein Mensch auch. Es gibt da draußen aber auch Roboter, die sind von Menschen gesteuert und verbreiten auf Insta und demnächst auch auf Youtube gezielt Meinungen und Einstellungen, ganz ohne viel KI. Vor diesen Robotern habe ich Angst, dagegen müssen wir vorgehen.

    • Foto: Sebastian Rönnau

      Sebastian Rönnau Beantwortet am 21 Feb 2024:


      Jeder Roboter benötigt (kurzfristig) Strom und (langfristig) mechanische Wartung. Spätestens dann wäre er von Menschen abhängig.

    • Foto: Matthias Kahl

      Matthias Kahl Beantwortet am 21 Feb 2024: last edited 21 Feb 2024 3:30 pm


      Ich sehe es ein bisschen anders als Kai. ChatGPT hat einen großen Katalog an Meinungen und gibt die zum Kontext naheliegendste Antwort wieder.

      Für mich definiert sich eine Meinung aus dem Zusammenhang zwischen Wahrnehmung, Erfahrungen und der dazu verknüpften emotionalen Empfindung. Je nach Abneigung oder Zuneigung formt sich dann in komplexer Weise die Meinung.

    • Foto: Annegret Janzso

      Annegret Janzso Beantwortet am 21 Feb 2024:


      Wenn wir jetzt einmal ignorieren, ob das möglich ist oder nicht, sondern davon ausgehen: Das gibt es einfach. Dann stehen wir vor einer ethischen und philosophischen Frage. Behandeln wir die KI wie einen Menschen, der eigene Meinungen haben kann? Darf die KI zum Beispiel wählen gehen? Welche Rechte hat die KI? Wie auch bei vielen anderen Themen käme dabei erst einmal viel Konflikt auf. Was das Ergebnis wäre, kann wohl keiner vorhersagen.

    • Foto: Knut Linke

      Knut Linke Beantwortet am 21 Feb 2024:


      KI-Systeme, z. B. LLM-Systeme, werden nicht direkt gesteuert. Sie werden von Menschen trainiert und entscheiden dann, im Rahmen ihrer Möglichkeiten, welche Antworten sie geben und wie sie reagieren (sollten).

      Von daher bilden sich schon KI-Systeme eine gewisse Meinung, was die richtige Lösung ist (vereinfacht: Sie berechnen einen Wahrscheinlichkeit, was die richtige Lösung ist und können dann ggf. aus Ergebnissen oder Feedback von Nutzern lernen).

    • Foto: Diana Schneider

      Diana Schneider Beantwortet am 21 Feb 2024:


      In manchen Bereichen, bspw. bei der bildgebenden Medizin, soll sich KI ja „eine eigene Meinung“ bilden, weil sie die Menschen in der Entscheidungsfindung unterstützen soll. Problematisch wird das, wenn diese „KI-Meinung“ unkritisch übernommen wird, bspw. weil man denkt, sie KI „wüsste es besser“.

    • Foto: Daniel Braun

      Daniel Braun Beantwortet am 22 Feb 2024: last edited 22 Feb 2024 8:14 am


      Wie du an den Antworten merkst ist der Begriff „Meinung“ stark verbunden mit etwas menschlichem.

      Fest steht aber: KIs können schon heute schlauer werden als die Menschen die sie entwickelt haben. Ich kann eine KI entwickeln die schwedische Texte auf Deutsch übersetzen kann, obwohl ich kein Wort Schwedisch kann.

      Ich kann ChatGPT nach einer Meinung fragen und es wird mir eine Antwort geben. Und die Antwort wird vielleicht ähnlich sein zu dem was andere Menschen vorher gesagt haben, aber es kann auch eine Mischung aus verschiedenen Meinungen sein, die in genau dieser Zusammensetzung noch niemand vorher geäußert hat. Man kann also darüber streiten ob eine KI eine eigene Meinung haben kann, eine KI kann aber auf jeden Fall etwas fabrizieren, was nach außen nicht von einer eigenen Meinungsäußerung zu unterscheiden ist.

      Das kann uns dabei helfen neue Aspekte an einem Thema zu entdecken, wenn wir mit dem was die KI produziert sinnvoll umgehen. Kritisch darüber nachdenken und es nicht automatisch für richtig halten. Das kann aber auch richtig gefährlich werden, wenn wir zum Beispiel eine KI fragen ob eine bestimmte Pilzsorte essbar ist und die KI eine falsche Meinung dazu abgibt. Eine der großen Herausforderungen in der KI Forschung ist es deshalb dafür zu sorgen, dass KI keine Dinge tut oder sagt die potenziell schädlich sein können für die Nutzerinnen und Nutzer.

Kommentare