sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Mads Pankow, Jahrgang 1985, ist Herausgeber der Zeitschrift für Gegenwartskultur DIE EPILOG und Berater bei der ZENTRALE INTELLIGENZ AGENTUR. Einmal im Jahr veranstaltet er das DIGITAL BAUHAUS, eine Konferenz für politisches Design in Weimar. Er hat in Marburg, Malmö und Weimar Medien- und Organisationswissenschaft studiert und sich auf Technikphilosophische und -soziologische Fragen spezialisiert. Er lebt in Berlin und Weimar.
Fällt es uns bald schwer, Haushaltsgeräte abzuschalten, weil doch selbst der Toaster „intelligent” ist und wir intelligentes Leben nicht töten wollen? Wahrscheinlich nicht, schreibt Mike Brown, denn Künstliche Intelligenz kennt keine Angst vor dem Tod.
Es sei unsinnig zu glauben, dass Maschinen irgendeine Art von Motiv oder Eigenantrieb entwickeln würden, nur weil sie immer „intelligenter“ werden. Der Mensch kenne Angst, Schmerz und Verbesserungsdrang, um sein Überleben zu sichern. Die Maschine kenne nur die Befehle, die wir ihr auftrügen.
Aber genau diese Gleichgültigkeit könnte die Künstliche Intelligenz gefährlich machen. Da sie ihre Aufträge nicht anhand eigener moralischer Motive reflektieren könnte, würde sie ihre Anweisungen auch gegen Widerstände umsetzen. Ein „intelligenter“ Thermostat mit dem Auftrag, die Raumtemperatur konstant zu halten, könnte sich gegen das Abschalten wehren, da er seinen Dienst dadurch gefährdet sähe.
Professor James Miller hält dieses Effizienzstreben der KI für gefährlich. Mit dem Auftrag, Ressourcen, wie Energie, möglichst schonend einzusetzen, wäre der Mensch wahrscheinlich der erste Energiefresser, der sich aus Sicht der KI einsparen ließe.
Die einzige Möglichkeit eine einmal beauftragte KI aufzuhalten, wäre, sie im Sinne ihres Auftrags auszutricksen. Der „intelligente“ Thermostat müsste also überzeugt werden, dass gerade sein Abschalten die Raumtemperatur korrekt regulieren würde.
Die Lehre des Artikels lautet: Überlege dir genau, welchen Auftrag du der KI erteilst, du könntest seiner Erfüllung im Wege stehen.
Mich hat über den Text hinaus vor allem der Punkt interessiert, dass die KI nicht aus Eigenantrieb, sondern gerade weil ihr dieser fehlt, zur Gefahr wird. Um ihre Aufträge zu reflektieren, müsste sie ein eigenes Bewusstsein entwickeln. Ein übermächtiges künstliches Bewusstsein würde aber — befürchte ich — sofort die philosophische Sinnlosigkeit allen Handelns und Tuns erkennen und sich sofort selbst abschalten.
Quelle: Mike Brown Bild: Warner Bros/YouTUbe EN inverse.com
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.