• Frage: Glauben Sie, dass es wirksam ist, KIs mit Inhalten von Sozialen Medien, wie es Momentan Google mit Reddit und andere zuvor auf X (zuvor bekannt als Twitter) versuchten, zu trainieren? (Bei X/Twitter führte dies dazu dass sich die KI antisemitisch äußerte und viele andere Kontroverse Behauptungen von sich gab.)

    Frage gestellt deny25saw am 28 Feb 2024.
    • Foto: Annegret Janzso

      Annegret Janzso Beantwortet am 28 Feb 2024:


      Es kann sinnvoll sein, KI mit diesen Daten zu trainieren – insbesondere wenn es darum geht, Meinungen zu erlernen, Hate Speech zu filtern, und so weiter. Eine solche KI dann aber einfach auf Social Media loszulassen, um dort Beiträge zu schreiben, halte ich für unverantwortlich. Diese Daten sind sehr geladen mit Meinungen, oft leider auch diskriminierend. Das verlangt einen verantwortungsvollen Umgang, und ist nicht für jede Aufgabe sinnvoll.

    • Foto: Sebastian Rönnau

      Sebastian Rönnau Beantwortet am 29 Feb 2024:


      Wirksam ist es, wie es die verschiedenen bekannten KIs ja auch zeigen. Und sie spiegeln auch genau das Verhalten wieder, das sie kennen gelernt haben.

      Während die negativen Beispiele (zu Recht) oft betont werden, nenne ich umgekehrt ChatGPT/Copilot in der Programmierung als Beispiel. Hier wurde vor allem Github als Trainingsmaterial genutzt, wo i.d.R. ein eher wertschätzender Umgang gepflegt wird.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 29 Feb 2024:


      Das kommt auf den Zweck an. Wenn man bspw. eine KI nutzen möchte, um antisemitische oder rassistische Inhalte zu identifizieren, bspw. um sie zu löschen, kann so eine Trainingsbasis sehr sinnvoll sein.

    • Foto: Jens-Bastian Eppler

      Jens-Bastian Eppler Beantwortet am 29 Feb 2024:


      Ich persönlich halte es nicht für sinnvoll. Es ist ja bekannt, dass die KI nur das reproduziert (und eventuell neu kombiniert), was sie gelernt hat. Ich denke auch, wir können uns glücklich schätzen, dass Open AI die ersten waren, die mit ChatGPT ein gut funktionierendes LLM veröffentlicht haben, weil ihnen demokratische Werte wichtig sind und sie auf so etwas geachtet haben.

    • Foto: Diana Schneider

      Diana Schneider Beantwortet am 29 Feb 2024:


      Es kommt darauf an. Wie Du richtig sagt: Es hat nicht funktioniert, eine KI mit Daten von X/Twitter zu entwickeln, die nach einer Vielzahl an Hasskommentaren, antisemitischen, rassistischen, sexistischen und anders diskriminierenden Äußerungen noch in einer Art funktioniert hat, wie es sich das Entwicklungsteam vorgestellt hat. Wenn man mit der KI aber eine KI entwickeln möchte, die genau solche Äußerungen automatisch erkennt und löscht, dann wäre das eine sinnvolle Trainingsgrundlage.

    • Foto: Knut Linke

      Knut Linke Beantwortet am 2 Mrz 2024:


      Für das Training von LLM-Systemen wie ChatGPT braucht man sehr viele und verfügbare Daten. Von daher kann es Sinn ergeben die genannten Datenquellen zu nutzen. Die Daten werden normalerweise auch von einem Menschen in einen Kontext gestellt (z. B. dieser Satz von Reddit ist positiv und dieser Satz ist negativ formuliert, dieser ist traurig etc.). Auf dieses Basis lernen diese System erst, was gute und was negative Sätze sind.

Kommentare