Ein großes Sprachmodell ist ein computergestütztes Sprachmodell, das aus einem künstlichen neuronalen Netzwerk mit vielen Parametern besteht, das mithilfe von selbstüberwachtem oder halbüberwachtem Lernen auf große Mengen unbeschrifteten Textes trainiert wird. LLMs sind etwa 2018 entstanden und leisten bei einer Vielzahl von Aufgaben gute Dienste.
Große Sprachmodelle haben performative Verwendungszwecke wie die Erstellung generativer Bilder, Schrift, Informationen und Sprache und führen durch ihre Verwendung viele außergewöhnliche Leistungen aus, die normalerweise eine ausschließende Funktion bei Menschen und nicht bei Maschinen haben, wie kreatives Denken, Ideenfindung, Forschung, Formulierung Denken, schlüssige Ergebnisse und rationales Denken.
Die Schwierigkeiten bei großen Sprachmodellen hängen von der Menge an unbeschrifteten Informationen und Tokenisierungsinhalten ab, die in nützliche Informationen für den maschinellen Lernprozess umgewandelt werden können.