• Frage: Was passiert wenn die KI die Weltherrschaft übernimmt?

    Frage gestellt Agee25tar am 21 Feb 2024. Diese Frage wurde auch von mass25tar gestellt.
    • Foto: Jens-Bastian Eppler

      Jens-Bastian Eppler Beantwortet am 21 Feb 2024:


      Ich denke nicht, dass es so weit kommen wird. KI ist eine Technologie, die wir Menschen uns ausgedacht haben und die wir Menschen benutzen. Aus sich heraus macht eine KI überhaupt nichts. Je nachdem, was für Menschen diese Technologie benutzen, kann das allerdings natürlich positiv oder negativ sein. Wie die meisten Technologien in der Vergangenheit auch. Trotzdem hat im engeren Sinne keine Technologie bisher die Weltherrschaft übernommen.

      Im übertragenen Sinne natürlich schon eher. Immer wieder haben neue Technologien die Menschheit tief geprägt. Schon Dinge wie Schrift oder Buchdruck, durch die wir Wissen viel besser verbreiten konnten. Aber auch natürlich Dinge wie das Auto oder Computer oder das Internet. Das hat alles immer positive aber auch negative Aspekte mit sich gebracht. Um die negativen Auswirkungen so klein wie möglich zu halten, brauchen wir natürlich Regeln. Und genau darüber wird ja im Moment auch sehr viel diskutiert.

    • Foto: Sebastian Rönnau

      Sebastian Rönnau Beantwortet am 21 Feb 2024:


      Es gibt nicht „die KI“ wie ein Skynet in Terminator.

      Grundsätzlich ist eine KI immer davon abhängig, dass der Mensch die Infrastrutur (Computer, Netzwerke, Strom, Kühlung etc) bereitstellt. Wenn da etwas fehlt, bricht das Modell zusammen.

    • Foto: Kai Naumann

      Kai Naumann Beantwortet am 21 Feb 2024:


      Weltherrschaft hatte ja bisher noch niemand. Wird auch schwierig, von allem die Chefin zu sein. Und wo hört die Welt auf? – Aber Spaß beiseite: in Deinem Land, in Deinem Umfeld bist Du mit allen anderen dafür verantwortlich, der Technologie ihren Spielraum zu geben, also auch Grenzen zu setzen. Von uns gemeinsam hängt ab, was passiert, wenn die KI überall voll im Einsatz ist.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 21 Feb 2024:


      Solche Fragen sind motiviert durch Filme, in denen Roboter die Welt beherrschen. Nur haben solche Filme wenig mit der Realität zu tun, sondern spiegeln unsere Ängste vor einer Welt wider, die wir oft nicht mehr richtig verstehen können. Nicht Maschinen versuchen, die Weltherrschaft zu übernehmen, sondern Menschen, die Maschinen als Werkzeuge dazu benutzen. Vor diesen Leuten sollten wir Angst haben, nicht vor den Werkzeugen.

    • Foto: Daniel Braun

      Daniel Braun Beantwortet am 21 Feb 2024:


      Viele sehr kluge Menschen glauben, dass KI eine große Bedrohung für die Menschheit sein kann. Vielleicht sogar dass es die Gefahr gibt, dass KI die Menschheit irgendwann auslöscht. Darunter sind auch einige sehr angesehene Forscher die viele Preise gewonnen haben.

      Wie die meisten hier glaube ich nicht, dass von einer KI selbst große Gefahr ausgeht für die Menschen. Menschen die KI einsetzen um anderen Menschen zu schaden sind aber schon heute eine reale Bedrohung und in Zukunft wird das immer häufig passieren.

    • Foto: Matthias Kahl

      Matthias Kahl Beantwortet am 21 Feb 2024: last edited 21 Feb 2024 4:03 pm


      Ich denke auch nicht dass KI in dem Sinne aus eigenmotivation oder aus bösem Willen heraus den Menschen schaden wird. Je mehr wir jedoch KI in unser Leben integrieren desto mehr machen wir uns davon abhängig.

      Es ist extrem unwahrscheinlich aber eben nicht 100% auszuschließen dass ähnlich wie das „Leben aus Unlebendigem“ entstanden ist, auch eine „KI mit freiem Willen“ entstehen kann. Aber wie gesagt, es ist äußerst unwahrscheinlich und es gibt bisher keinen einzigen Hinweis dazu bis auf die blühende Menschliche Fantasie dazu.

      Die Frage ob etwas Lebendig ist oder wir einen freien Willen haben ist tatsächlich auch nicht so klar und eindeutig zu beantworten und es gibt da auch verschiedene seriöse Ansichten dazu.

      Eine KI braucht keinen freien Willen um gefährlich sein zu können und eine potentielle KI mit freiem Willen muss nicht zwangsläufig gefährlich sein.

    • Foto: Xenia Klinge

      Xenia Klinge Beantwortet am 21 Feb 2024:


      Ich kann nur zustimmen, dass bei den meisten KIs die Absichten der Menschen dahinter das sind, was zählt. Es gibt jedoch die Möglichkeit, dass selbst „gute“ Absichten zu problematischen Ergebnissen führen.

      Hierzu gibt es ein Gedankenexperiment, das einen eher pessimistischen Blick auf das Thema „Superintelligenz“ wirft und was passieren würde, wenn Computer sich selbst so weit verbessern könnten, dass sie alles physikalisch Mögliche umsetzen könntne. Unter anderen hat der Philosoph Nick Bostrom darüber geschrieben. Das geht so:

      Stellt euch vor, ihr habt eine KI programmiert, die dafür da ist so viele Papierklammern wie möglich herzustellen. Ein harmloses Ziel, oder? Aber diese KI wäre so schlau, dass sie jedes Problem lösen kann, um das Ziel zu erreichen, unter anderem jedes letzte Bisschen Metall aus Flüssen, Steinen und Organismen zu extrahieren.

      Nur mit diesem „harmlosen“ Ziel ausgerüstet würde die KI alles tun, um mehr Papierklammern zu produzieren – selbst wenn das bedeutet, dass es die ganze Welt auseinandernehmen muss, um die Materialien zu bekommen. Inklusive uns Menschen. Weil sie nicht interessiert, dass wir es sind, die Papierklammern überhaupt erst verwenden. Alles, was sie will, ist so viele Papierklammern wie möglich herstellen.

      Das klingt vielleicht ein wenig verrückt, aber es ist ein Beispiel dafür, wie eine superintelligente KI, die nicht darauf programmiert ist, die Bedürfnisse und Werte der Menschen zu berücksichtigen, Probleme verursachen könnte. Das ist natürlich nur ein Gedankenexperiment und niemand weiß, ob sich eine superintelligente KI wirklich so „dumm“ verhalten würde, oder ob sie überhaupt möglich ist.

      Aber es zeigt, warum es wichtig ist, dass wir bei der Entwicklung von KI sicherstellen, dass sie unsere Werte teilt und zum Wohl der Gesellschaft arbeitet, statt ihre eigenen Ziele zu verfolgen, die uns vielleicht nicht gefallen würden.

    • Foto: Knut Linke

      Knut Linke Beantwortet am 21 Feb 2024:


      👍Das ist eine gute Frage. Die Angst hiervor liegt wahrscheinlich in der Natur des Menschen, dass neues zumeist eine unbekannte Gefahr darstellt.

      Wie sich KI- und IT-Systeme in der Zukunft entwickeln werden, kann man nur schwer im Detail vorhersagen, aber wir können die Entwicklung eingrenzen.

      👁‍🗨Bei KI-Systemen unterscheiden wir einfache KI und generelle KI. Eine einfache KI (z. B. vereinfacht „Alexa“, ein selbstlernender Saugroboter oder eine auf ein bestimmtes Thema zugeschnittene Chat-KI) kann praktisch keine Weltherrschaft übernehmen. Das geben die Funktionen nicht her.

      Eine generelle KI (auch AGI oder Full AI) sind übergreifende KI-Systeme, die individuelle Probleme lösen oder umfassende Problemgruppen und Themengebiete bearbeiten sowie lernen können. Für eine Weltherrschaft ist das aber noch nicht ausreichend. Die Herausforderung liegt in der Kopplung von IT-Systemen. Eigentlich verfügt jedes IT-System über eigene und individuelle Sicherheitsmechanismen, so dass es nicht einfach übernommen werden kann. Auch unterscheiden sich die Sprachen zwischen IT-Systemen und die Arten wie diese aufgebaut sind. Die Verbindung von IT-Systemen ist auch einer häufigsten Gründe, warum IT-Projekte in der Praxis scheitern oder schwierig sind (ihr könnt überlegen, wie gut die IT-Systeme in eurer Schule ineinander greifen oder in den Anwendungen die ihr so nutzt – sind immer überall alle Daten verfügbar und könnt ihr euch einfach einloggen?).

      🤪Fehlfunktionen auf kleiner Ebene sind natürlich möglich.

      Sollten KI-Systeme einmal, vereinfacht gesagt aus der Reihe tanzen und Fehlfunktionen aufweisen, so sollten (bzw. werden) diese Systeme so gestaltet, dass es einen Notaus (Schalter, Systemherunterfahren, Programmbeenden) oder Rücksetzpunkte gibt (Systemwiederherstellen). Damit Fehlfunktionen nicht passieren, ist es notwendig, dass die KI und das umgebene System vernünftig entwickelt und angepasst wurde. Die Aufgabe des Designs eine Notaus findet sich z. B. in Berufsbildern wie dem ☠️Killswitch Engineer, der Softwareentwicklers oder eines Requirements Engineer wieder.

      In KI-Systemen können auch Regeln, wie z. B. die 🤖Robotergesetze von Asimov, verankert werden.

      📢Falls ihr euch als Vertiefungsaufgabe etwas mehr mit diesem Thema beschäftigen wollt: Fragt doch mal eine LLM-KI, wie z. B. ChatGPT, was diese von den Robotergesetzen von Asimov hält und ob diese auch für KI-Systeme gelten sollen (und wann nicht). ✔️

      Die Ergebnisse sind bestimmt eine gute Grundlage um darüber in der Klasse oder mit Freunden zu diskutieren. 👩‍🏫👨‍🏫

    • Foto: Diana Schneider

      Diana Schneider Beantwortet am 21 Feb 2024:


      Ich kann mich da nur meinen Vorredner*innen anschließen: KI kann die Weltherrschaft nicht übernehmen. Es können aber Menschen versuchen, mithilfe von KI mehr Macht und Einfluss zu bekommen.

    • Foto: Anne Jaap

      Anne Jaap Beantwortet am 24 Feb 2024:


      Ich finde sehr interessant, dass du „wenn“ schreibst und nicht „falls“. Also gehst du selbst davon aus, dass das irgendwann passiert? 😉
      Ich denke, es kommt vor allem darauf an, wie die Welt zu diesem Zeitpunkt aussieht und um was für eine KI es sich handelt, der das gelingt. Falls so etwas gelingen könnte. Um nicht zu wiederholen, was die anderen vor mir gesagt haben, möchte ich vielleicht als Gedanken noch ergänzen: Es könnte ja auch sein, dass die KI die Weltherrschaft nicht gewaltsam an sich reißt, sondern gewählt wird… Falls dich dieses Gedankenspiel interessiert, würde ich dir „Qualityland“ von Marc-Uwe Kling empfehlen. Da geht es genau darum, dass eine KI zur Wahl steht. Das Buch ist unterhaltsam, aber auch sehr gut durchdacht.

Kommentare