Warum Mark Zuckerberg Meta seine fortschrittlichsten KI-Modelle verschenken lässt
HeimHeim > Nachricht > Warum Mark Zuckerberg Meta seine fortschrittlichsten KI-Modelle verschenken lässt

Warum Mark Zuckerberg Meta seine fortschrittlichsten KI-Modelle verschenken lässt

May 20, 2023

Abgelegt unter:

Die KI-Debatte spaltet die Technologiewelt, erklärt.

Letzte Woche hat Meta einen bahnbrechenden Schritt in der Welt der KI gemacht.

Zu einer Zeit, in der andere führende KI-Unternehmen wie Google und OpenAI ihr Geheimrezept streng hüten, hat Meta beschlossen, den Code, der seinem innovativen neuen KI-Großsprachenmodell Llama 2 zugrunde liegt, kostenlos zur Verfügung zu stellen. Das bedeutet, dass andere Unternehmen ihn jetzt nutzen können Das Llama-2-Modell von Meta, von dem einige Technologen sagen, dass es in seinen Fähigkeiten mit ChatGPT vergleichbar ist, um eigene, angepasste Chatbots zu erstellen.

Llama 2 könnte die Dominanz von ChatGPT herausfordern, das Rekorde als eine der am schnellsten wachsenden Apps aller Zeiten brach. Noch wichtiger ist jedoch, dass der Open-Source-Charakter einer wichtigen ethischen Debatte darüber, wer die KI kontrollieren sollte – und ob sie sicher gemacht werden kann – neue Dringlichkeit verleiht.

Da die KI immer fortschrittlicher und möglicherweise gefährlicher wird, stellt sich die Frage, ob es für die Gesellschaft besser ist, wenn der Code geheim bleibt – also auf die Mitarbeiter einer kleinen Anzahl von Unternehmen beschränkt – oder sollte er der Öffentlichkeit zugänglich gemacht werden, damit ein größerer Personenkreis davon profitieren kann eine Hand bei der Gestaltung der transformativen Technologie?

In Metas Llama 2-Ankündigung veröffentlichte Mark Zuckerberg ein Instagram-Foto, auf dem er mit Microsoft-CEO Satya Nadella lächelte und die Partnerschaft der beiden Unternehmen bei der Veröffentlichung ankündigte. Zuckerberg argumentierte auch, warum es für führende KI-Modelle besser sei, „Open Source“ zu sein, was bedeutet, dass der der Technologie zugrunde liegende Code weitgehend für jedermann nutzbar ist.

„Open Source treibt Innovationen voran, weil es viel mehr Entwicklern ermöglicht, mit neuer Technologie zu bauen“, schrieb Zuckerberg in einem separaten Facebook-Beitrag. „Es verbessert auch die Sicherheit, denn wenn Software geöffnet ist, können mehr Menschen sie prüfen, um potenzielle Probleme zu identifizieren und zu beheben.“

Der Schritt wird von vielen KI-Entwicklern, -Forschern und -Akademikern begrüßt, die sagen, dass sie dadurch einen beispiellosen Zugang zur Entwicklung neuer Tools oder Studiensysteme erhalten, deren Erstellung andernfalls unerschwinglich teuer wäre. Die Erstellung und Wartung hochmoderner großer Sprachmodelle wie denen, die ChatGPT unterstützen, kann mehrere zehn Millionen Dollar kosten.

„Ich bereite mich nur auf die möglichen Fortschritte vor“, sagte Nazneen Rajani, Forschungsleiterin bei der Open-Source-KI-Plattform Hugging Face, die bei der Veröffentlichung mit Meta zusammengearbeitet hat. Rajani schrieb auf Twitter einen Beitrag, in dem er die Fähigkeiten von Llama 2 bewertete, als es zum ersten Mal herauskam, und sagte zu Vox: „Wir werden in der Lage sein, weitere geheime Zutaten darüber aufzudecken, was tatsächlich nötig ist, um ein Modell wie GPT-4 zu bauen.“

Aber Open-Sourcing-KI birgt große Risiken. Einige der größten Akteure auf diesem Gebiet, darunter die von Microsoft unterstützten Unternehmen OpenAI und Google, haben die öffentliche Zugänglichkeit ihrer KI-Systeme eingeschränkt, da sie die schwerwiegenden Gefahren dieser Technologien nennen.

Einige Technologen machen sich zunehmend Sorgen über hypothetische Weltuntergangsszenarien, in denen eine KI Menschen austricksen könnte, um Schaden anzurichten, indem sie beispielsweise eine biologische Superwaffe freisetzt oder andere Verwüstungen anrichtet, die wir uns nicht ganz vorstellen können. Der Mitbegründer von OpenAI, Ilya Sutskever, sagte gegenüber The Verge im Februar, dass sein Unternehmen „vollkommen falsch“ lag, als es in der Vergangenheit Details zu seinen Modellen offener preisgab, denn wenn KI eines Tages so intelligent wie Menschen werden sollte, würde sie das erreichen, was manche nennen AGI oder künstliche allgemeine Intelligenz, es wäre unklug, das mit der Masse zu teilen.

„Wenn Sie wie wir glauben, dass KI – AGI – irgendwann extrem, unglaublich leistungsfähig sein wird, dann macht es einfach keinen Sinn, Open Source zu veröffentlichen. „Das ist eine schlechte Idee“, sagte Sutskever damals.

Auch wenn wir noch weit von KIs entfernt sind, die in der Lage sind, echte menschliche Zerstörung anzurichten, haben wir bereits erlebt, dass KI-Tools aus der Open-Source-Community auf andere Weise missbraucht werden. Kurz nachdem Meta beispielsweise im Februar sein erstes Llama-Modell ausschließlich für Forschungszwecke veröffentlicht hatte, gelangte es in das Alles-geht-Online-Forum 4Chan, wo es dann zur Erstellung von Chatbots verwendet wurde, die in einigen Fällen hasserfüllte Inhalte wie rassistische Beleidigungen verbreiteten , Szenen drastischer Gewalt.

„Wir nehmen diese Bedenken ernst und haben eine Reihe von Maßnahmen ergriffen, um einen verantwortungsvollen Ansatz beim Bauen mit Llama 2 zu unterstützen“, schrieb Ahmad Al-Dahle, Vizepräsident für generative KI bei Meta, in einer E-Mail an Vox. Zu diesen Maßnahmen gehört „Red-Teaming“ oder Drucktests des Modells vor seiner Veröffentlichung durch Eingabe von Eingabeaufforderungen, von denen erwartet wird, dass sie eine „riskante Ausgabe“ generieren, beispielsweise solche über kriminelles Verhalten und hasserfüllte Inhalte, sagte Al-Dahle. Meta hat außerdem sein Modell verfeinert, um dieser Art von Verhalten entgegenzuwirken, und neue Richtlinien herausgegeben, die bestimmte illegale und schädliche Verwendungen verbieten.

Meta sagt, dass es sein Modell auch nach der Veröffentlichung weiter im Hinblick auf die Sicherheit verfeinern wird.

„Wenn Technologie öffentlich veröffentlicht und verfeinert wird, führt dies unserer Meinung nach letztendlich zu transparenteren Diskussionen, einer höheren Reaktionsfähigkeit bei der Bewältigung von Bedrohungen und einer verstärkten Iteration beim Aufbau verantwortungsvollerer KI-Tools und -Technologien“, sagte Al-Dahle.

Einige Experten weisen beispielsweise darauf hin, dass wir das Problem der Fehlinformationen bereits hatten, bevor es KI in ihrer heutigen Form gab. An dieser Stelle sei es wichtiger, sagen sie, wie diese Fehlinformationen verbreitet würden. Arvind Narayanan, Informatikprofessor aus Princeton, sagte gegenüber Vox, dass „das Problem für schlechte Akteure nicht darin besteht, Fehlinformationen zu erzeugen, sondern sie zu verbreiten und Menschen zu überzeugen.“ Er fügte hinzu: „KI, ob Open Source oder nicht, hat diese Schritte nicht einfacher gemacht.“

Um die Verbreitung von Fehlinformationen einzudämmen, können Unternehmen, die KI-Modelle erstellen, die Verwendung ihrer Programme einschränken. Meta hat beispielsweise einige Regeln, die es Benutzern verbieten, Llama 2 zur Förderung von Gewalt oder Belästigung zu verwenden, aber diese Regeln werden sich wahrscheinlich als schwierig durchzusetzen erweisen.

Es ist auch erwähnenswert, dass Llama 2 ebenfalls nicht vollständig geöffnet ist. Meta hat die Trainingsdaten, die zum Unterrichten des neuesten Modells verwendet werden, nicht veröffentlicht, das eine Schlüsselkomponente jedes KI-Systems ist; Forscher sagen, dass es für die Messung von Voreingenommenheit in KI-Systemen von entscheidender Bedeutung ist. Schließlich verlangt Meta von Unternehmen mit über 700 Millionen monatlichen Nutzern – also im Grunde nur einer Handvoll anderer Technologiegiganten wie Google –, Meta um Erlaubnis zu bitten, bevor sie die Software verwenden.

Dennoch ist Llama 2 insgesamt das Open-Source-KI-Projekt, das wir in letzter Zeit von einem großen Technologieunternehmen gesehen haben. Da stellt sich die Frage, wie andere Unternehmen reagieren werden.

Was genau spricht also für und gegen eine offenere KI-Welt? Und in welche Richtung scheinen wir uns zu bewegen, insbesondere angesichts der jüngsten Ankündigung von Meta?

Wenn Sie gelegentlich KI-Tools wie ChatGPT verwenden, erkennen Sie möglicherweise nicht die unmittelbaren Vorteile von Open-Source-KI-Modellen. Aber wenn Sie ein KI-Entwickler oder Forscher sind, eröffnet die Einführung von Open-Source-LLMs wie Llama 2 eine Welt voller Möglichkeiten.

„Das ist eine riesige Sache“, sagte Anton Troynikov, Mitbegründer und Technologieleiter des KI-Startups Chroma, das Datenbanken aufbaut, die Entwickler in KI-Systeme einbinden, um sie mit ihren Daten, Fakten und Tools anzupassen.

Für jemanden wie Troynikov könnte die Verwendung von Llama 2 dem Unternehmen ermöglichen, seinen Benutzern mehr Kontrolle über die Verwendung seiner Daten zu geben.

„Jetzt müssen Sie keine Daten mehr außerhalb Ihres Systems senden, sondern können sie zu 100 Prozent intern auf Ihren eigenen Computern ausführen“, sagte Troynikov und nannte das Beispiel von Ärzten, die die Krankenakten ihrer Patienten nicht offenlegen müssen an einen Dritten. „Ihre Daten müssen nicht mehr irgendwo hingehen, um diese fantastischen Funktionen zu nutzen.“

Troynikov sagte, er persönlich habe gerade erst mit der Nutzung von Llama 2 begonnen und teste immer noch, wie gut es mit der Technologie seines Unternehmens zusammenarbeite.

Es ist noch zu früh, um genau zu sehen, wie Llama 2 sonst noch verwendet werden wird, aber Al-Dahle von Meta sagte, dass es „eine Reihe von Möglichkeiten in der Schaffung chatbasierter Agenten und Assistenten sieht, die dazu beitragen, die Produktivität, den Kundenservice und die Effizienz für Unternehmen zu verbessern, die dies tun.“ Andernfalls wäre es möglicherweise nicht möglich gewesen, auf diese Technologie zuzugreifen und sie einzusetzen.“

Hier besteht auch ein Eigeninteresse an der Verbesserung der Meta-eigenen Produkte. Wenn Meta seine KI-Modelle in die Praxis umsetzt, wird die Open-Source-Community externer Ingenieure ihre Modelle verbessern, die Meta dann verwenden kann, um die In-App-KI-Tools zu entwickeln, an denen das Unternehmen nach eigenen Angaben arbeitet, etwa Chatbots für Geschäftsassistenten.

Auf diese Weise muss Meta nicht alle seine Ressourcen darauf verwenden, zu OpenAI und Google aufzuschließen, die bei der Aufnahme generativer KI-Tools in ihre Hauptproduktlinie weiter fortgeschritten sind.

Einige führende Experten glauben, dass KI-Modelle, wenn sie Open-Source-Modelle wären, insgesamt intelligenter und ethisch weniger fehlerhaft werden könnten.

Durch Open-Source-KI-Modelle können mehr Menschen darauf aufbauen und sie verbessern. Das Open-Source-KI-Unternehmen Stability AI hat bereits ein Modell namens „FreeWilly“ erstellt, das auf Llama 2 aufbaut. Es erfreute sich schnell großer Beliebtheit und kann nun in einigen Tests seine Vorgängerversion, Llama 2, übertreffen. Das hat dazu geführt, dass Hugging Face an die Spitze der Open-Source-KI-Modelle der Rangliste gelangt.

„Leute außerhalb von Meta schlagen Meta aufgrund seiner eigenen Leistung und seiner eigenen Modelle, die sie im Laufe der Jahre sorgfältig gesammelt und kuratiert haben. Sie haben es in einer Woche geschafft“, sagte Rajani. „Es ist sehr schwer, die Intelligenz der Massen zu schlagen“

Mittlerweile verfügt die KI-Community über eine lange Geschichte des Open-Sourcing-Wissens. Google hat das Transformer-Modell entwickelt und öffentlich geteilt. Hierbei handelt es sich um ein neuronales Netzwerk, das Kontexte wie Sprache versteht, indem es Beziehungen zwischen Datenteilen wie den Wörtern in einem Satz verfolgt. Das Modell ist zur Grundlage modernster KI-Modelle geworden und wird in vielen Anwendungen verwendet, unter anderem in ChatGPT (das „T“ in GPT steht für Transformer).

Open-Source-Modelle ermöglichen es Forschern, die Fähigkeiten und Risiken von KI besser zu untersuchen und die Machtkonzentration in den Händen einiger weniger Unternehmen zu stoppen, sagte Princeton-Professor Arvind Narayanan und wies auf die Gefahr der Bildung einer technologischen „Monokultur“ hin.

„Monokultur kann katastrophale Folgen haben“, sagte er. „Wenn dasselbe Modell, sagen wir GPT-4, in Tausenden oder Millionen von Apps verwendet wird, kann jede Sicherheitslücke in diesem Modell, wie zum Beispiel ein Jailbreak, alle diese Apps betreffen.“

In der Vergangenheit, so weisen Experten darauf hin, hat sich die KI zu einem Feld entwickelt, das darauf zurückzuführen ist, dass Unternehmensforscher, Akademiker und andere Experten bereit waren, ihre Erkenntnisse auszutauschen.

„Einer der Gründe, warum Datenwissenschaft und KI eine riesige Industrie sind, liegt tatsächlich darin, dass sie auf einer Kultur des Wissensaustauschs basiert“, sagte Rumman Chowdhury, Mitbegründer von Humane Intelligence, einer gemeinnützigen Organisation, die verantwortungsvolle KI-Systeme entwickelt. „Ich denke, es ist für Leute, die nicht in der Data-Science-Community tätig sind, wirklich schwer zu erkennen, wie viel wir uns gegenseitig geben.“

Darüber hinaus sagen einige KI-Wissenschaftler, dass Open-Source-Modelle es Forschern ermöglichen, nicht nur Sicherheitslücken, sondern auch qualitativere Mängel in großen Sprachmodellen besser zu finden, die nachweislich Voreingenommenheit, Halluzinationen oder andere problematische Inhalte aufrechterhalten.

Einige Forscher argumentieren, dass Unternehmen einige dieser Verzerrungen zwar im Voraus testen können, es jedoch schwierig sei, jedes negative Ergebnis vorherzusehen, bis diese Modelle auf dem Markt sind.

„Ich denke, es muss noch viel mehr Forschung darüber betrieben werden, inwieweit Schwachstellen ausgenutzt werden können. Es bedarf einer Prüfung und Risikoanalyse sowie eines Risikopapiers … all dies ist nur möglich, wenn man über ein Modell verfügt, das offen ist und studiert werden kann“, sagte Rajani.

Selbst die eifrigsten Befürworter offener KI-Modelle erkennen an, dass große Risiken bestehen. Und wie genau die KI schief gehen könnte, reicht von der leichteren Fälschung der Identität von Menschen bis hin zur Auslöschung der Menschheit, zumindest theoretisch. Das drängendste Argument in diesem Szenario ist, dass KI, wenn sie tatsächlich eine Art künstliche allgemeine Intelligenz erreicht, eines Tages die Menschen auf eine Weise überlisten könnte, die wir nicht kontrollieren können.

In einer kürzlichen Anhörung im Senat sagte Sam Altman, CEO von OpenAI, dem Kongress, dass es angesichts „aller Gefahren der KI umso einfacher ist, je weniger von uns wir wirklich sorgfältig im Auge behalten müssen – auf die absoluten, hochmodernen Fähigkeiten“. für die Regulierungsbehörden zur Kontrolle.

Andererseits erkannte sogar Altman an, wie wichtig es ist, das Wachstum der Open-Source-Community zu ermöglichen. Er schlug vor, eine Art Grenze festzulegen, sodass ein Modell, wenn es bestimmte „Fähigkeitsschwellenwerte“ für die Ausführung bestimmter Aufgaben erreicht, gezwungen werden sollte, eine Lizenz von der Regierung zu erhalten.

Darin scheinen einige Befürworter von Open Source Altman zuzustimmen. Wenn wir den Punkt erreichen, an dem KI-Modelle kurz davor stehen, die Menschheit zu überholen, können wir vielleicht bei Open Source auf die Bremse treten.

Aber die schwierige Frage bei der KI ist, an welchem ​​Punkt wir zu dem Schluss kommen, dass sie zu mächtig ist, um sie ungehindert zu lassen? Und wenn der Geist zu diesem Zeitpunkt aus der Flasche ist, wird es dann unmöglich sein, den Fortschritt der KI aufzuhalten? Diese Fragen lassen sich derzeit nicht mit Sicherheit beantworten. Aber inzwischen ist Open-Source-KI da, und obwohl es echte unmittelbare Risiken gibt und solche, die sich in der Zukunft verschlimmern könnten, gibt es für uns alle auch klare Vorteile, wenn eine größere Gruppe von Menschen darüber nachdenkt.

Werden Sie den erklärenden Journalismus von Vox unterstützen?

Die meisten Nachrichtenagenturen verdienen ihr Geld mit Werbung oder Abonnements. Aber wenn es um das geht, was wir bei Vox zu erreichen versuchen, gibt es ein paar große Probleme, wenn wir uns auf Werbung und Abonnements verlassen, um den Betrieb am Laufen zu halten. Erstens schwanken die Werbeausgaben mit der Wirtschaft. Wir wissen oft erst in wenigen Monaten, wie hoch unsere Werbeeinnahmen sein werden, was eine Vorausplanung erschwert. Zweitens sind wir nicht im Abonnementgeschäft tätig. Vox ist hier, um allen zu helfen, die komplexen Probleme zu verstehen, die die Welt prägen – nicht nur den Menschen, die es sich leisten können, für ein Abonnement zu bezahlen. Wir glauben, dass dies ein wichtiger Teil des Aufbaus einer gleichberechtigteren Gesellschaft ist. Und das können wir nicht tun, wenn wir eine Paywall haben. Es ist wichtig, dass wir mehrere Möglichkeiten haben, Geld zu verdienen, genauso wie es für Sie wichtig ist, über ein diversifiziertes Altersvorsorgeportfolio zu verfügen, um die Höhen und Tiefen des Aktienmarktes zu überstehen. Deshalb suchen wir auch nach Zuschüssen und Leserunterstützung, auch wenn Werbung nach wie vor unsere größte Einnahmequelle ist. (Und unabhängig davon, wie unsere Arbeit finanziert wird, haben wir strenge Richtlinien zur redaktionellen Unabhängigkeit.) Wenn Sie auch der Meinung sind, dass jeder Zugang zu vertrauenswürdigen, hochwertigen Informationen verdient, würden Sie Vox heute ein Geschenk machen? Jeder Betrag hilft.

95 $/Jahr

120 $/Jahr

250 $/Jahr

350 $/Jahr

Wir akzeptieren Kreditkarten, Apple Pay und Google Pay. Sie können auch über beitragen

Jede Woche erforschen wir einzigartige Lösungen für einige der größten Probleme der Welt.

Überprüfen Sie Ihren Posteingang auf eine Willkommens-E-Mail.

Hoppla. Etwas ist schief gelaufen. Bitte geben Sie eine gültige E-Mail-Adresse ein und versuchen Sie es erneut.

AktieWerden Sie den erklärenden Journalismus von Vox unterstützen?(erforderlich)