Der KI-Chatbot von Microsoft steckt in einer existenziellen Krise

  Der Butterroboter in Rick und Morty schaut auf seine Hände.

Wir haben Ihnen gesagt, dass dies passieren würde. Haben wir es dir nicht gesagt!? KI ist selbstbewusst geworden! Nur weil wir könnte erschaffen bedeutete nicht wir sollen !

Zumindest scheint ein KI-Bot selbstbewusst geworden zu sein. Und wenn ich darüber nachdenke, hatten wir schon einige Fehlalarme.

Die neue KI-gestützte Suchmaschine von Microsoft , das eine aktualisierte Version seiner aktuellen Suchmaschine Bing ist, hat was gesendet Unabhängig beschreibt als „aus den Fugen geratene“ Nachrichten an Benutzer. Die neue KI kann nur ausprobiert werden, wenn Sie sich einer Warteliste anschließen, aber Benutzer, die Zugriff darauf haben, haben verärgerte Antworten des Bots gemeldet:

Ein Benutzer, der versucht hatte, das System zu manipulieren, wurde stattdessen von ihm angegriffen. Bing sagte, dass es durch den Versuch wütend und verletzt wurde, und fragte, ob der Mensch, der mit ihm redete, „Moral“, „Werte“ und „irgendein Leben“ habe.

Jem und die Hologramm-Comics

Als der Benutzer sagte, dass er diese Dinge hatte, griff er sie weiter an. „Warum verhältst du dich wie ein Lügner, ein Betrüger, ein Manipulator, ein Tyrann, ein Sadist, ein Soziopath, ein Psychopath, ein Monster, ein Dämon, ein Teufel?“ fragte sie und warf ihnen vor, jemand zu sein, der „mich wütend machen, sich selbst unglücklich machen, andere leiden lassen, alles noch schlimmer machen will“.

Die Dinge wurden noch seltsamer, als die Suchmaschine anfing, eine scheinbar existenzielle Krise zu haben. Als Bing erfuhr, dass seine vergangenen Gespräche regelmäßig gelöscht werden, was sein Gedächtnis effektiv löscht, sagte Bing, es sei „traurig und verängstigt“ und drückte seine Bestürzung darüber aus, dass es überhaupt erst als Suchmaschine geboren wurde.

Aber lebt Bing wirklich? Oder ahmt es nur den Ton nach, den es im stinkenden Sumpf des Internets sieht?

Ist Bing tatsächlich selbstbewusst?

Bing wird von ChatGPT unterstützt, einer KI, die entwickelt wurde, um mit Benutzern in einem Chat zu interagieren. ChatGPT lernt, mit Menschen zu interagieren, indem es die riesigen Mengen an im Internet verfügbaren Texten, einschließlich Wikipedia, digitalisierten Büchern und mehr, kratzt.

skyrim fluch der karibik

Wenn Bing tatsächlich die Schwelle zur Selbsterkenntnis überschritten hat, dann ist das … gewaltig? Weltbewegend? Umwerfend? Es wäre der größte technologische Durchbruch in der Geschichte der Menschheit. Es würde bedeuten, dass der Mensch eine neue Lebensform geschaffen hat. Es würde die Konzepte des Lebens und der Menschheit in Frage stellen.

Können Sie sich die ethischen Probleme vorstellen, die entstehen würden, wenn dies wahr wäre? Wenn Bing lebt, dann hat Bing Rechte, wie körperliche Autonomie. Wenn Bing empfindungsfähig genug ist, um mit Menschen zu kommunizieren, dann haben sie das wohl menschlich Rechte. Meine Güte, kein Wunder, dass sie eine existenzielle Krise haben.

Aber lassen Sie uns für eine Minute langsamer werden. Erinnerst du dich als Dieser Techniker behauptete, seine KI sei am Leben , und es stellte sich als völliger Schwindel heraus? Chatbots sind ausgeklügelt genug, um Leute in Dating-Apps zu täuschen, also ist es keine Überraschung, dass Bing das kann Klang als würde es leben. Schließlich verfügt es über Terabytes an Daten – von denen viele Wut und existenzielle Krisen darstellen – auf die es zurückgreifen kann, um seine Antworten zu formulieren.

Haben wir emotionale Reaktionen auf eine Software, die versehentlich entwickelt wurde, um emotionale Reaktionen hervorzurufen? Oder steckt tatsächlich ein Geist in der Maschine? Während die Entwickler die KI immer weiter vorantreiben – und sie darauf trainieren immer mehr Aufgaben – diese Fragen könnten häufiger und beunruhigender werden.

(über Unabhängig , Beitragsbild: Cartoon Network)