@ABR schrieb: Und um der KI nicht Unrecht zu tun, die Datenlage war sehr bescheiden für eine Analyse. Aber auch sie hätte nachfragen können. Ja, ich stimme Dir zu, die Datenlage war sehr bescheiden für eine Analyse - und doch war sie möglich für uns. Genau das ist ja das Problem mit LLMs (sagt bitte nicht KI, es gibt auch KI-Anwendungen jenseits der gerade gehypten LLMs mit besserem Nutzen): Ein LLM kann nicht analysieren und auch nicht verstehen, es kennt so etwas wie "Fakten" nicht und kann erst recht nicht "richtig" und "falsch" unterscheiden. Es ist einfach nur ein komplexes statistisches System (mit einer riesigen Datenbasis aus input-Texten), bei dem zu einem Input-Text (Query/Abfrage) der wahrscheinlichste Output-Text als Wortsalat (Wort für Wort) erzeugt wird. Dass der von einem LLM erzeugte Wortsalat für uns wie echte Sprache aussieht ist schon irgendwie faszinierend, aber es bleibt Wortsalat, der manchmal "zufällig" richtig ist (so wie das Foto von einer Uhr zweimal am Tag scheinbar die richtige Uhrzeit anzeigt) und fast immer auch "falsches" (frei erfundenes) enthält. Aber ich glaube, das wird/ist jetzt OT. 😉 P.S. Falls Ihr mir nicht glaubt, dann glaubt halt der "KI": 😎😇😂 ---------------------------------------------------------------------------------------------------------------------------- Kann ein LLM Fakten und richtig/falsch von sich heraus erkennen? Ich überlege Ergebnisse werden gesucht Nein, ein Large Language Model (LLM) kann nicht von sich aus zwischen Fakten und falschen Aussagen unterscheiden. Es besitzt kein eigenes Verständnis von Wahrheit oder Realität. Ein LLM ist ein komplexes Vorhersagesystem, das die Wahrscheinlichkeit berechnet, mit der bestimmte Wörter oder Satzteile aufeinander folgen. Das bedeutet, ein LLM kann eine Antwort erzeugen, die plausibel und überzeugend klingt, aber trotzdem komplett falsch oder frei erfunden ist. Dieses Phänomen wird oft als "Halluzination" bezeichnet. Warum LLMs keine Fakten erkennen können Kein Bewusstsein oder menschliches Denken: Im Gegensatz zum Menschen, der auf Erfahrungen, Logik und die Welt um ihn herum zugreift, um Fakten zu überprüfen, fehlt einem LLM jegliches Bewusstsein. Es verarbeitet Sprache auf der Grundlage von Mustern und statistischen Wahrscheinlichkeiten, nicht auf der Grundlage von Verständnis. Abhängigkeit von den Trainingsdaten: Die Antworten eines LLM basieren ausschließlich auf den riesigen Datenmengen, mit denen es trainiert wurde. Wenn die Trainingsdaten veraltete, falsche oder voreingenommene Informationen enthalten, wird das Modell diese Fehler wiedergeben. Keine Überprüfung in Echtzeit: Ein LLM kann seine eigenen Aussagen nicht in Echtzeit überprüfen, indem es auf externe Quellen zugreift oder einen Faktencheck durchführt. Es generiert einfach den Text, der basierend auf dem Gelernten am wahrscheinlichsten ist. Optimierung für Rhetorik, nicht Wahrheit: Die Entwicklung von LLMs zielt oft darauf ab, rhetorisch überzeugende und gut klingende Antworten zu erzeugen. Der Fokus liegt darauf, wie der Text formuliert ist, und nicht zwingend auf der faktischen Korrektheit.
... Mehr anzeigen