Hunderte von Tech-Experten (und auch Elon Musk) fordern eine Unterbrechung und Risikobewertung von A.I. Entwicklung

  KI-erstellter Code-Korridor in The Matrix

Wenn Elon Musk, Apple-Mitbegründer Steve Wozniak und über 500 Technologieexperten einen offenen Brief unterzeichnen, in dem sie eine sofortige Unterbrechung der Entwicklung künstlicher Intelligenz (KI) fordern, wissen Sie, dass das Problem ernster ist als das Anschauen von zu vielen Science-Fiction-Filmen Filme. Während A.I. Die Übernahme der Welt wird oft als ein unwahrscheinliches Ereignis abgetan, das nur in der Fiktion vorkommt, die in dem Brief geäußerten Befürchtungen grenzten fast an ein solches Ereignis. Es ist vielleicht nicht unbedingt so dramatisch wie die Übernahme durch Ultron oder Skynet, aber es gibt echte Bedenken, dass die uneingeschränkte KI Entwicklung dazu führen könnte KI den Menschen nach und nach ersetzen .

Was das Verfassen und Unterzeichnen des Briefes besonders zu motivieren schien, war die jüngste Entwicklung und frühe Veröffentlichung von OpenAIs Multimodal Large Language Model (MLLM), GPT-4. Ein MLLM ist eine K.I. Tool, das mehrere Eingabemodi wie Text, Bilder, Videos und Audio interpretieren kann. Darüber hinaus kann es natürliche Sprachverarbeitung (NLP) durchführen, was bedeutet, dass es Sprache auf ähnliche Weise wie ein Mensch verstehen und erzeugen kann. GPT-4 ist in einer eingeschränkten Form namens ChatGPT Plus verfügbar, die es bereits gibt löste eine Vielzahl von Kontroversen aus .

Die Kontroverse reicht von Bedenken über Studenten, die ChatGPT zum Schummeln verwenden, über die Erkennung von Voreingenommenheit in ChatGPT bis hin zu Schäden, die durch die Bereitstellung falscher Antworten durch ChatGPT entstehen, bis hin zum Potenzial von ChatGPT, Menschen in bestimmten Berufen zu ersetzen. Jetzt, wo OpenAI bereits die Entwicklung eines Upgrades, GPT-5, vorantreibt, schlagen Tech-Experten Alarm.

Tech-Experten (und Elon Musk) unterzeichnen einen offenen Brief, um A.I. Entwicklung

Ein offener Brief wurde über das Future of Life Institute veröffentlicht , eine gemeinnützige Organisation, die sich dem Schutz vor globalen Katastrophen verschrieben hat, einschließlich der hypothetischen Bedrohung durch K.I. Der Brief hat zum Zeitpunkt des Schreibens dieses Artikels 1.324 Unterschriften gesammelt, darunter von Hunderten von Technologieexperten und sogar von Musk, dem Mitbegründer von OpenAI. Es skizzierte die Tatsache, dass A.I. Die Entwicklung ist zunehmend unreguliert geworden, wobei die Veröffentlichung von GPT-4 eine gefährliche A.I. Wettrennen. Der Brief stellte einige rhetorische Fragen, die die potenziellen Gefahren von A.I. Es liest:

Zeitgenössische KI-Systeme werden nun bei allgemeinen Aufgaben mit dem Menschen konkurrenzfähig, und wir müssen uns fragen: Sollen wir Maschinen unsere Informationskanäle mit Propaganda und Unwahrheit fluten lassen? Sollen wir alle Jobs wegautomatisieren, einschließlich der erfüllenden? Sollen wir nichtmenschliche Köpfe entwickeln, die uns schließlich zahlenmäßig übertreffen, überlisten, obsolet machen und ersetzen könnten? Sollen riskieren wir den Kontrollverlust über unsere Zivilisation?

Es wurde weiter hervorgehoben, dass die Entwicklung leistungsfähigerer K.I. Systeme sollten sich nicht weiterentwickeln, bis die Gewissheit besteht, dass sie von Vorteil sind und „ihre Risiken beherrschbar sein werden“. Um dies sicherzustellen, schlug der Brief eine sechsmonatige Pause bei der Entwicklung von K.I. vor. das ist weiter fortgeschritten als GPT-4. Während der Pause empfahl der Brief die Umsetzung von Sicherheitsprotokollen, Regulierungsbehörden, einen strengeren Prüfungsprozess und die Festlegung von Haftungen für Schäden, die durch KI verursacht wurden.

Der Brief erfasste die Überzeugungen von glühenderen Skeptikern von A.I. Einige Unterzeichner glauben, dass sogar GPT-4 bereits sehr gefährlich ist und Anzeichen künstlicher allgemeiner Intelligenz zeigt, dh die Fähigkeit, die Welt auf eine Weise zu lernen und zu interpretieren, die der menschlichen Fähigkeit entspricht. Weniger vorsichtige Skeptiker widerlegte diese Idee und erklärte, dass GPT-4 nicht einmal annähernd auf Augenhöhe mit dem menschlichen Verstand. Während also viele Kritiker von A.I. zwar der Notwendigkeit einer Regulierung und der Anerkennung potenzieller Risiken zustimmen, halten einige die in dem Schreiben skizzierten Ideen jedoch für übertrieben.

Letztendlich sind sich viele Tech-Experten einig, dass die Gefahren von A.I. sind so bedeutend, dass eine sofortige Entwicklungspause und Reformen in der Branche erforderlich sind. Es bleibt abzuwarten, ob A.I. Labore und unabhängige K.I. Experten dem Aufruf Folge leisten oder, wie in dem Schreiben vorgeschlagen, die Regierung sogar einschreiten wird, um die Pause zu beschwören.

(Ausgewähltes Bild: Warner Bros.)