Eine bessere Methode zur Identifizierung großer übersicherer Sprachmuster | MIT-Nachrichten

Eine bessere Methode zur Identifizierung großer übersicherer Sprachmuster | MIT-Nachrichten

Eine bessere Methode zur Identifizierung großer übersicherer Sprachmuster | MIT-Nachrichten

Große linguistische Modelle (LLMs) können glaubwürdige, aber ungenaue Antworten liefern. Daher haben Forscher Methoden zur Unsicherheitsquantifizierung entwickelt, um die Zuverlässigkeit von Vorhersagen zu überprüfen. Eine beliebte Methode besteht darin, dieselbe Eingabeaufforderung mehrmals zu senden, um zu sehen, ob das Modell dieselbe Antwort generiert.

Aber diese Methode misst das Selbstvertrauen, und selbst der beeindruckendste LLM könnte das Selbstvertrauen falsch verstehen. Übermäßiges Vertrauen kann Benutzer hinsichtlich der Genauigkeit einer Vorhersage irreführen, was in wichtigen Kontexten wie dem Gesundheitswesen oder dem Finanzwesen verheerende Folgen haben kann.

Um diesen Mangel zu beheben, führten MIT-Forscher eine neue Methode zur Messung einer anderen Art von Unsicherheit ein, die zuverlässigere, aber falsche LLM-Antworten identifiziert.

Ihre Methode besteht darin, die Reaktion eines Zielmodells mit den Reaktionen einer Gruppe ähnlicher LLMs zu vergleichen. Sie fanden heraus, dass die Messung von Meinungsverschiedenheiten zwischen Modellen diese Art von Unsicherheit genauer berücksichtigt als herkömmliche Ansätze.

Sie kombinierten ihren Ansatz mit einem Maß für die Selbstkonsistenz aus dem LLM, um ein Maß für die Gesamtunsicherheit zu erstellen, und bewerteten es anhand von 10 realistischen Aufgaben wie der Beantwortung von Fragen und dem mathematischen Denken. Dieses Maß für die Gesamtunsicherheit übertraf durchweg andere Maße und war wirksamer bei der Identifizierung unzuverlässiger Vorhersagen.

„Selbstkonsistenz wird in vielen verschiedenen Ansätzen zur Quantifizierung der Unsicherheit verwendet, aber wenn Ihre Unsicherheitsschätzung ausschließlich auf der Ausgabe eines einzelnen Modells beruht, ist sie nicht unbedingt zuverlässig. Wir gingen zurück zu den Anfängen, um die Grenzen der aktuellen Ansätze zu verstehen, und nutzten sie als Ausgangspunkt, um eine ergänzende Methode zu entwerfen, die die Ergebnisse empirisch verbessern kann“, sagt Kimia Hamidieh, Doktorandin der Elektro- und Computertechnik (EECS) am MIT und Hauptautorin einer Arbeit zu dieser Technik.

Zu ihr gesellt sich in dem Artikel Veronika Thost, Forschungswissenschaftlerin am MIT-IBM Watson AI Lab; Walter Gerych, ehemaliger Postdoktorand des MIT und jetzt Assistenzprofessor am Worcester Polytechnic Institute; Mikhail Yurochkin, Forschungswissenschaftler am MIT-IBM Watson AI Lab; und Hauptautor Marzyeh Ghassemi, außerordentlicher Professor am EECS und Mitglied des Institute of Medical Engineering Sciences und des Information and Decision Systems Laboratory.

Selbstüberschätzung verstehen

Viele gängige Methoden zur Quantifizierung der Unsicherheit bestehen darin, ein Modell nach einem Konfidenzwert zu fragen oder die Konsistenz seiner Antworten auf dieselbe Eingabeaufforderung zu testen. Diese Methoden schätzen die aleatorische Unsicherheit oder den Grad des internen Vertrauens, das ein Modell in seine eigene Vorhersage hat.

Allerdings können LLMs zuversichtlich sein, wenn sie völlig falsch liegen. Untersuchungen haben gezeigt, dass epistemische Unsicherheit oder die Unsicherheit darüber, ob das richtige Modell verwendet wird, möglicherweise eine bessere Methode zur Beurteilung der tatsächlichen Unsicherheit ist, wenn ein Modell zu selbstsicher ist.

MIT-Forscher schätzen die epistemische Unsicherheit, indem sie Meinungsverschiedenheiten innerhalb einer ähnlichen Gruppe von LLMs messen.

„Wenn ich ChatGPT mehrmals dieselbe Frage stelle und ich immer wieder die gleiche Antwort bekomme, heißt das nicht, dass die Antwort unbedingt richtig ist. Wenn ich zu Claude oder Gemini wechsle und ihnen dieselbe Frage stelle und eine andere Antwort bekomme, wird mir das eine Vorstellung von epistemischer Unsicherheit geben“, erklärt Hamidieh.

Die epistemische Unsicherheit versucht zu bestimmen, inwieweit ein Zielmodell für diese Aufgabe vom idealen Modell abweicht. Da es jedoch unmöglich ist, ein ideales Modell zu konstruieren, greifen Forscher auf Ersatzmodelle oder Näherungen zurück, die oft auf falschen Annahmen basieren.

Um die Quantifizierung der Unsicherheit zu verbessern, benötigten MIT-Forscher eine präzisere Methode zur Schätzung der epistemischen Unsicherheit.

Ein globaler Ansatz

Die von ihnen entwickelte Methode besteht darin, die Divergenz zwischen dem Zielmodell und einer kleinen Menge von Modellen ähnlicher Größe und Architektur zu messen. Sie fanden heraus, dass ein Vergleich der semantischen Ähnlichkeit oder der Übereinstimmung der Bedeutungen von Antworten eine bessere Schätzung der epistemischen Unsicherheit liefern könnte.

Um die genaueste Schätzung zu erhalten, benötigten die Forscher eine Reihe von LLMs, die verschiedene Reaktionen abdecken, nicht zu sehr dem Zielmodell ähneln und auf Glaubwürdigkeit gewichtet sind.

„Wir haben herausgefunden, dass der einfachste Weg, alle diese Eigenschaften zu erfüllen, darin besteht, Modelle zu verwenden, die von verschiedenen Unternehmen trainiert wurden. Wir haben viele verschiedene, komplexere Ansätze ausprobiert, aber dieser sehr einfache Ansatz hat am Ende am besten funktioniert“, sagt Hamidieh.

Nachdem sie diese Methode zur Schätzung der epistemischen Unsicherheit entwickelt hatten, kombinierten sie sie mit einem Standardansatz zur Messung der aleatorischen Unsicherheit. Dieses Maß für die Gesamtunsicherheit (TU) spiegelt die Zuverlässigkeit des Konfidenzniveaus eines Modells am genauesten wider.

„Die Unsicherheit hängt von der Unsicherheit der gegebenen Eingabeaufforderung sowie davon ab, wie nahe unser Modell am optimalen Modell liegt. Deshalb liefert uns die Synthese dieser beiden Unsicherheitsmaße die beste Schätzung“, erklärt Hamidieh.

TU könnte Situationen, in denen ein LLM halluziniert, effektiver identifizieren, da epistemische Unsicherheit sicher fehlerhafte Ergebnisse melden kann, die aleatorische Unsicherheit möglicherweise übersieht. Es könnte Forschern auch ermöglichen, die korrekten Reaktionen eines LLM während des Trainings zu verstärken, was die Leistung verbessern könnte.

Sie testeten TU mit mehreren LLMs für zehn gängige Aufgaben, wie z. B. Beantwortung von Fragen, Zusammenfassen, Übersetzen und mathematisches Denken. Ihre Methode identifizierte unzuverlässige Vorhersagen effektiver als jede Maßnahme allein.

Die Messung der Gesamtunsicherheit erforderte oft weniger Abfragen als die Berechnung der Zufallsunsicherheit, was die Rechenkosten senken und Energie sparen könnte.

Ihre Experimente zeigten auch, dass die epistemische Unsicherheit bei Aufgaben mit einer einzigen richtigen Antwort besser abschneidet, beispielsweise bei der Beantwortung sachlicher Fragen, bei Aufgaben mit offenerem Ergebnis jedoch möglicherweise schlechter abschneidet.

In Zukunft könnten Forscher ihre Technik anpassen, um die Leistung bei offenen Abfragen zu verbessern. Sie können auf dieser Arbeit auch aufbauen, indem sie andere Formen aleatorischer Unsicherheit untersuchen.

Diese Arbeit wird teilweise vom MIT-IBM Watson AI Lab finanziert.

Source link

Similar Posts