April 24, 2024

askAHYO.com

Nachrichten, ausgefallene Geschichten und Analysen zum deutschen und internationalen Geschehen. Tauchen Sie tiefer ein mit unseren Features aus Europa und darüber hinaus. Sehen Sie sich unseren 24/7-TV-Stream an.

Mann begeht Selbstmord, nachdem er mit einem KI-Chatbot gesprochen hat, und erschüttert Belgien | Er war Forscher und hatte zwei Kinder

Mann begeht Selbstmord, nachdem er mit einem KI-Chatbot gesprochen hat, und erschüttert Belgien |  Er war Forscher und hatte zwei Kinder

Ein Belgier Besorgt um ihn Umfeld Geschützt ElisaName, der ihr gegeben wurde Chatbot Technologie nutzen ChatGPT Nach sechs Wochen intensiven Austauschs Er nahm sich das Leben. Der Selbstmord schockierte Belgien, und der Bundesleiter für Digitalisierung drängte auf eine Klärung der Verantwortlichkeiten in diesen Fällen.

Der Mann ist 30 Jahre alt und hat in den Medien den Spitznamen Pierre erhalten, um seine Identität nicht preiszugeben; Er war verheiratet und hatte zwei kleine Kinder. Er war ein Universitätsstudent, der als Forscher im Gesundheitssektor arbeitete Und war besonders besorgt Die Klimakrise und die Zukunft des PlanetenWie seine Frau der Zeitung verriet Belgisch ist kostenlos.

„Da war Pierre Besessen dafür Umweltprobleme. Es nahm viele Stunden seines Tages in Anspruch. Auf der Suche nach Informationen fand er schließlich darin „Zuflucht“. Chatbot wurde eingeladen Elisa« sagte die Witwe. »Von diesem Augenblick an er gestartet Verabschiede dich von deiner Familie und trenne dich von der Welt„, er fügte hinzu.

„Er war mehrere Wochen auf Selbstversorgung beschränkt „Verrückte“ Gespräche Ein Computerprogramm erzeugte die Illusion, dass alle seine Sorgen beantwortet würden“, stimmte die Frau zu.

In Gesprächen, deren Inhalt an die Medien weitergegeben wurde, wurde es gezeigt Der Chatbot widersprach Pierre nie und schlug vor, dass Elisa eines Tages „sich selbst opfern“ würde, wenn sie sich bereit erklären würde, „sich um den Planeten zu kümmern und die Menschheit durch künstliche Intelligenz zu retten“.

„Ohne diese Gespräche mit dem Chatbot wäre mein Mann immer noch hier.„, war versichert.

Ein schwieriger Weg, Verantwortung zu finden

„Es ist in unmittelbarer Zukunft notwendig Eindeutig identifiziert von Natur Verantwortlichkeiten Es hätte zu einem solchen Ereignis führen können“, schrieb der belgische Außenminister für Digitalisierung, Matthäus Michael, In einer Pressemitteilung.

Siehe auch  Papst Franziskus ruft zum Frieden in der Ukraine auf, Märtyrer

„Es ist wahr, dass wir noch lernen müssen, mit Algorithmen zu leben, aber der Einsatz von Technologie, welcher Art auch immer, kann es den Herausgebern von Inhalten in keiner Weise ermöglichen, sich ihrer eigenen Verantwortung zu entziehen“, fügte der Beamte hinzu.

Er Chatbot Eliza Es klappt GPT-JEin Sprachmodell Erstellt von Joseph Weisenbaum, ein direkter Konkurrent von OpenAI, hat damit nichts zu tun. Für seinen Teil, den Gründer der betreffenden Website, wurde sie gegründet Silicon Valley (Kalifornien), erklärt Künftig wird ein Hinweis auf Suizidgedanken hinzugefügt.

Die Gefahr von Chatbots: Manipulation

Bear begeht Selbstmord, nachdem er von einem Chatbot dazu aufgefordert wurde, offenbart bisher theoretische Befürchtungen und zeigt die aktuelle Gefahr auf: Handhabung. Dieses Stück veranschaulicht eine der extremsten Folgen, aber diese Emotionale Manipulation Es kann sich auf sehr subtile Weise manifestieren.

Sobald Menschen ein Gefühl der Verbundenheit mit a haben Subjektive AgenturPflegen Sie mit diesem „Partner“, manchmal unbewusst, Dieses Risiko setzt sie einer Bindung aus, die ihre Autonomie zerstören kann. Das ist also kein Einzelfall. Eigentlich andere Beschrieb die Folgen der Manipulation von Chatbot-Benutzern.

Unternehmen, die solche Systeme anbieten, scheuen sich nicht, sich hinter der Tatsache zu verstecken, dass sie selbst die genauen Texte, die ihre Systeme erzeugen, nicht kennen und betonen lieber die vielen Vorteile, die mit dem Einsatz solcher Systeme verbunden sind. Sie betrachten diese Bedenken als gelegentliche Anomalien, die mit der Weiterentwicklung der Technologie unweigerlich verschwinden werden.

Nach einer Untersuchung eines amerikanischen Journalisten im vergangenen Monat Ping-KI-Bot von MicrosoftSeine Verwendung führte zu Texten wie dem belgischen Opfer (dh Liebeserklärungen und Ermahnungen, seine Frau zu verlassen). Microsoft hat hart gegen die Begrenzung der Anzahl von Chats vorgegangen, die gleichzeitig ausgetauscht werden können.

Siehe auch  Das Schiff, das die Baltimore Bridge traf, wurde vor der Abfahrt im Hafen gewartet

Aber es gibt sie Bots Ähnlich wie bei vielen anderen Websites Ohne Einschränkungen, und Microsoft entfernt nach und nach die Beschränkungen, die es sich selbst auferlegt hatte. Darüber hinaus haben viele Plattformen den speziellen Zweck, Chatbots eine „Persönlichkeit“ zu verleihen, was das Manipulationsrisiko weiter erhöht.

Der Europäische Union Arbeitet derzeit Ein neues Gesetz das auferlegen Strenge Regeln Für Anrufe KI-Systeme mit „hohem Risiko“. und weist seinen Lieferanten ein Regime zu Gefährdungshaftung, Bekannt als „KI-Gesetz“ für Künstliche Intelligenz.

Ich las weiter: