April 29, 2024

askAHYO.com

Nachrichten, ausgefallene Geschichten und Analysen zum deutschen und internationalen Geschehen. Tauchen Sie tiefer ein mit unseren Features aus Europa und darüber hinaus. Sehen Sie sich unseren 24/7-TV-Stream an.

„60 Minutes“ hat eine ziemlich böse Behauptung über einen Google-KI-Chatbot aufgestellt

„60 Minutes“ hat eine ziemlich böse Behauptung über einen Google-KI-Chatbot aufgestellt

Seit OpenAI ChatGPT in die Welt entfesselt hat, haben wir gesehen, dass es Leute braucht, denen Sie nicht glauben würden. Einige Leute haben behauptet, dass Chatbots eine erwachte Agenda haben. US-Senator Chris Murphy twitterte, dass ChatGPT sich fortgeschrittene Chemie „beigebracht“ habe. Sogar erfahrene Tech-Journalisten haben Geschichten darüber geschrieben, wie es funktioniert Der Chatbot verliebte sich in sie. Es scheint, als würde die Welt auf die KI genauso reagieren, wie Höhlenmenschen wahrscheinlich reagiert haben, als sie zum ersten Mal Feuer sahen: mit völliger Verwirrung und zusammenhangslosem Geplapper.

Eines der jüngsten Beispiele stammt aus 60 Minuten, der seine Stimme mit einer neuen Folge in den Ring warf, die sich auf Innovationen in der künstlichen Intelligenz konzentrierte und am Sonntag auf CBS ausgestrahlt wurde. Die Folge enthielt Interviews mit Personen wie Sundar Pichai, CEO von Google, und enthielt fragwürdige Inhalte Behauptungen über eines der großen Sprachmodelle (LLM) des Unternehmens.

In dem Segment geht es um emergentes Verhalten, das einen unerwarteten Nebeneffekt eines KI-Systems beschreibt, der nicht unbedingt von den Entwicklern des Modells beabsichtigt war. Wir haben bereits in anderen neueren KI-Projekten aufkommendes Verhalten gesehen. Beispielsweise haben Forscher kürzlich ChatGPT verwendet, um in einer letzte Woche online veröffentlichten Studie digitale Personas mit Zielen und Hintergrund zu erstellen. Sie stellen fest, dass das System verschiedene emergente Verhaltensweisen ausführt, wie z. B. das Teilen neuer Informationen von einem Charakter zum anderen und sogar das Herstellen von Beziehungen untereinander – etwas, das die Autoren ursprünglich nicht für das System geplant hatten.

Aufkommendes Verhalten ist sicherlich ein lohnendes Thema, um es in einer Nachrichtensendung zu diskutieren. wo ist das 60 Minuten Das Video nimmt jedoch eine Wendung, als wir von Behauptungen erfahren, dass der Chatbot von Google tatsächlich in der Lage war, sich selbst eine Sprache beizubringen, die er vorher nicht kannte, nachdem er in dieser Sprache gefragt wurde. „Zum Beispiel passte sich ein KI-Programm von Google selbst an, nachdem es dazu in der Sprache von Bangladesch aufgefordert wurde, die es nicht lernen konnte“, sagte Scott Pelley, Reporter von CBS News, in dem Video.

Siehe auch  Der Hersteller von D&D Wizards of the Coast hat Berichten zufolge mindestens 5 Spiele abgesagt

KI-Experten sprechen von einem vollwertigen Bachelor-Abschluss. Der Roboter konnte nicht nur eine Fremdsprache nicht lernen, die er „nie gelernt hat“, sondern er hat sich auch nie eine neue Fähigkeit beigebracht. Der gesamte Clip veranlasste KI-Forscher und Experten, das irreführende Framing der Nachrichtensendung auf Twitter zu kritisieren.

„Ich hoffe auf jeden Fall, dass einige Journalisten das gesamte @60Minute-Segment auf Google Bard als Fallstudie darüber betrachten, wie man KI *nicht* behandelt“, sagte Melanie Mitchell, KI-Forscherin und Professorin am Santa Fe Institute. schrieb er in einem Tweet.

„Hören Sie auf, über Technologie magisch nachzudenken! Es ist der #AI nicht möglich, auf Bengali zu antworten, es sei denn, die Trainingsdaten wurden mit Bengali kontaminiert oder in einer Sprache trainiert, die sich mit Bengali überschneidet, wie Assamesisch, Oriya oder Hindi“, sagte Ms. Alex o. Forscher am Massachusetts Institute of Technology, In einem anderen Beitrag hinzugefügt.

Es ist nichts wert 60 Minuten Der Clip sagte nicht genau, welche KI sie verwendeten. Ein CBS-Sprecher sagte gegenüber The Daily Beast, dass das Segment keine Diskussion über Bard sei, sondern ein separates Programm über künstliche Intelligenz. Der Grund, warum dieser Teil für diese Experten so frustrierend ist, liegt jedoch darin, dass er die Realität dessen, was generative KI tatsächlich leisten kann, ignoriert und damit spielt. Es kann sich keine Sprache „beibringen“, wenn es keinen Zugang zu ihr hat. Das wäre, als würde man versuchen, sich selbst Mandarin beizubringen, aber man hat es erst gehört, nachdem man einmal Mandarin gefragt hat.

Schließlich ist Sprache unglaublich komplex – mit Nuancen und Regeln, die ein unglaubliches Maß an Kontext erfordern, um sie zu verstehen und zu kommunizieren. Selbst der fortschrittlichste LLM kann das alles nicht mit ein paar Eingabeaufforderungen bewältigen und lernen.

Darüber hinaus wurde die KI-Software möglicherweise bereits darauf trainiert, Bengali, die dominierende Sprache Bangladeschs, zu beherrschen. Margaret Mitchell (keine Beziehung), Forscherin im Startup Lab bei AT HuggingFace und früher bei Google, erklärte dies in Tweet-Thema Argumentieren Sie warum 60 Minuten Es war wahrscheinlich ein Fehler.

Siehe auch  Pixel 7a ist in einem neuen offiziellen Bild durchgesickert [Gallery]

Mitchell bemerkte, dass Bard – Googles kürzlich eingeführter öffentlich zugänglicher Chatbot – Arbeiten aus einer frühen Iteration seines Modells namens PaLM enthält. In einer Demonstration im Jahr 2022 zeigte Google, dass PaLM auf Bengali kommunizieren und auf Eingabeaufforderungen reagieren kann. Die Papier hinter PaLM In einem Datenblatt wurde enthüllt, dass das Modell tatsächlich auf die Sprache mit ungefähr 194 Millionen Symbolen im bengalischen Alphabet trainiert wurde.

Obwohl wir nicht wissen, was das separate mysteriöse KI-Programm war, stützte es sich wahrscheinlich auf die gleiche Arbeit von PaLM – was das Vorhandensein von Bengali im Datensatz erklären würde.

Es ist unklar, warum Pichai, der CEO von Google, sich zu dem Interview setzte und diese Anschuldigungen ungehindert aufrechterhalten ließ. (Google hat auf Anfragen nach Kommentaren nicht geantwortet.) Seit der Ausstrahlung der Folge hat er geschwiegen, obwohl Experten auf die irreführenden und falschen Behauptungen in dem Clip hingewiesen haben. Auf Twitter Margaret Mitchell Vorschlag Der Grund dafür könnte eine Kombination aus Google-Führungskräften sein, die nicht wissen, wie ihre Produkte funktionieren, und auch, dass es die Verbreitung schlechter Nachrichten ermöglicht, um dem aktuellen Hype um generative KI entgegenzuwirken.

„Ich vermute [Google executives] Ich verstehe buchstäblich nicht, wie es funktioniert, Mitchell zwitschern. „Was ich oben geschrieben habe, ist höchstwahrscheinlich neu für sie. Und sie sind motiviert, es nicht zu verstehen (SPRECHEN SIE IHRE AUGEN MIT DIESEM DATENBLATT!!).“

Die zweite Hälfte des Videos kann auch als problematisch angesehen werden, da Pichai und Billy eine Kurzgeschichte diskutieren, die Bard geschrieben hat und die „sehr menschlich klang“, was die beiden Männer etwas erschüttert zurücklässt.

Die Wahrheit ist, diese Produkte sind keine Zauberei. Sie können nicht „menschlich“ sein, weil sie keine Menschen sind. Sie sind Textvorhersagen wie die auf Ihrem Telefon, die darauf trainiert sind, nach einer Reihe von Wörtern in Sätzen die wahrscheinlichsten Wörter und Sätze zu finden. Zu sagen, dass sie existieren, könnte ihnen ein Maß an Macht verleihen, das unglaublich gefährlich sein könnte.

Siehe auch  Daigo Umehara teilt seine Zweifel an der Integration von Ryu oder Guile in Street Fighter 6

Schließlich können Benutzer diese generativen KI-Systeme verwenden, um beispielsweise Fehlinformationen zu verbreiten. Wir haben bereits gesehen, wie dies die Ähnlichkeiten von Menschen und sogar ihre Stimmen manipuliert.

Sogar ein Chatbot allein kann Schaden anrichten, wenn er am Ende voreingenommene Ergebnisse liefert – etwas, das wir bereits bei ChatGPT und Bard gesehen haben. Da sie die Neigung dieser Chatbots kennen, Ergebnisse zu halluzinieren und zu fabrizieren, können sie möglicherweise Fehlinformationen an ahnungslose Benutzer weitergeben.

Das bestätigt auch die Forschung. Eine aktuelle Studie Veröffentlicht in Wissenschaftliche Berichte Er stellte fest, dass menschliche Antworten auf ethische Fragen leicht durch die Argumente von ChatGPT beeinflusst werden konnten – und sogar, dass Benutzer stark unterschätzten, wie sehr sie von Bots beeinflusst wurden.

Irreführende Behauptungen bzgl 60 Minuten Es ist wirklich nur ein Symptom für den größeren Bedarf an digitaler Kompetenz in einer Zeit, in der wir sie am meisten brauchen. Viele KI-Experten sagen, dass es jetzt mehr denn je an der Zeit ist, sich bewusst zu machen, was KI kann und was nicht. Diese grundlegenden Fakten über die Robotik müssen auch der breiten Öffentlichkeit wirksam vermittelt werden.

Das bedeutet, dass die Menschen mit den größten Plattformen und den lautesten Stimmen (d. h. die Medien, Politiker und CEOs von Big Tech) die größte Verantwortung tragen, um eine sicherere und besser informierte KI-Zukunft zu gewährleisten. Wenn wir das nicht tun, könnten wir wie die oben erwähnten Höhlenmenschen enden, mit der Magie des Feuers spielen – und uns dabei verbrennen.

Anmerkung des Herausgebers: Eine frühere Version dieser Geschichte besagte, dass die im 60-Minuten-Segment besprochene KI Bard war, obwohl es sich um eine separate Google-KI handelte.