• Frage: Wie kann man verhindern, dass KI keine diskriminierenden Inhalte publiziert bzw. als Antworten herausgibt?

    Frage gestellt axes25saw am 28 Feb 2024. Diese Frage wurde auch von game25saw gestellt.
    • Foto: Annegret Janzso

      Annegret Janzso Beantwortet am 28 Feb 2024:


      Verhindern kann man dies nicht. Es gibt Ansätze, mit KI Hate-Speech zu filtern, was dabei Helfen kann, solche Inhalte einzuschränken. Das wird jedoch nie alles finden können, sodass es nicht möglich ist, diskriminierende Inhalte vollständig zu verhindern.

    • Foto: Emmanuel Müller

      Emmanuel Müller Beantwortet am 29 Feb 2024:


      Die KI gibt nur das aus was sie aus Daten (aus der Vergangenheit) gelernt hat, daher muss man an den Daten anfangen, um diskriminierende Inhalte aber auch andere Schieflagen (Bias in der Verteilung) aus den Trainingsdaten zu entfernen.

      Eine zweite Möglichkeit ist Fairness-Kriterien in das Training zu integrieren, damit der Bias in den Daten nicht im Modell übernommen wird. Auch die Erklärbarkeit von Modellen hilft zu verstehen, warum die KI solche Inhalte ausgegeben hat.

      In der Informatik hat man sich mit weiteren Disziplinen zusammengetan und forscht aktuelle an „Fairness, Verantwortung und Transparenz“ im Maschinellen Lernen: https://facctconference.org/

    • Foto: Ulrike Bohle-Jurok

      Ulrike Bohle-Jurok Beantwortet am 29 Feb 2024:


      Verhindern kann man es nicht, aber einschränken (wie Annegret und Emmanuel schon geschrieben haben). Aber die Texte, die die KI ausgibt, muss man ja nicht 1:1 übernehmen, sondern man kann und sollte sie bearbeiten und so selbst dafür sorgen, dass die diskriminierenden Inhalte nicht weiterverbreitet werden.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 29 Feb 2024:


      Die kurze Antwort ist: Überhaupt nicht. Die etwas längere Antwort ist: Es ist nicht so sehr die KI das Problem, die diskriminierende Inhalte produziert, sondern das Medium, über das diese Inhalte verbreitet werden — das Internet bzw. Social Media. Diese zu regulieren ist aber extrem schwierig.

    • Foto: Jens-Bastian Eppler

      Jens-Bastian Eppler Beantwortet am 29 Feb 2024:


      Die KI gibt ja nur wider, was sie gelernt hat. Man muss also sehr vorsichtig sein, wenn man eine KI trainiert. Die Daten müssen sorgfältig vorverarbeitet werden und man muss sich auch als Mensch ständig im Klaren darüber sein, dass sie potentiell rassistische Einflüsse beinhalten, auch wenn man das erstmal gar nicht denkt.

    • Foto: Diana Schneider

      Diana Schneider Beantwortet am 29 Feb 2024:


      Eine Möglichkeit wäre, darauf zu achten, dass die KI möglichst keine diskriminierenden Inhalte erhält, mit denen sie etwas lernen soll. Sprich: Wenn die Datenbasis wenig diskriminierende Inhalte enthält, ist auch das Ergebnis prinzipiell weniger diskriminierend. Problematisch ist es jedoch, dass diejenigen, die darüber entscheiden, ob diese Daten „noch nicht“ diskriminierend sind oder nicht, nicht zwangsläufig Diskriminerungserfahrung besitzen, um diese Entscheidung treffen zu können. Ein anderes Problem ist, dass sich manche diskriminierenden Inhalte erst durch die Kombination ergeben, andere sich dadurch sogar verstärken.

    • Foto: Knut Linke

      Knut Linke Beantwortet am 2 Mrz 2024:


      Das hilft wahrscheinlich nur Training und weiteres Training. Ganz ausschließen kann man es nicht.

    • Foto: Christoph Lipps

      Christoph Lipps Beantwortet am 5 Mrz 2024:


      Eine „KI“ verhält sich hier sehr ähnlich zu uns Menschen: Unser Handeln, unser Denken und auch unsere Vorurteile basieren auf dem was wir von klein auf gelernt haben, was wir erlebt haben und welche Erfahrungen wir gemacht haben. Bei einer „KI“ ist dies ähnlich. Durch die Auswahl und den Bias der verwendeten Daten kann das Verhalten „beinflusst“ werden. Durch gezielte Entfernung von diskriminierenden Inhalten kann bspw. in diese Richtung hin gewirkt werden.

      Darüber hinaus (siehe auch der aktuell von der Europäischen Union diskutierte AI-Act), können „Spielregeln“ vorgegeben werden, an welchen sie die Modelle und Algorithmen orientieren.

Kommentare