LLMs sind eine Artwork KI-Modell, das mit viel Textual content umgehen kann und lernt, wie Wörter miteinander in Beziehung stehen. Sie können neue Texte verfassen, basierend auf dem, was ihnen gegeben wird oder was von ihnen verlangt wird. Sie können auch andere Dinge mit Texten machen, zum Beispiel sortieren, zusammenfassen oder die Sprache ändern. Einige Beispiele für LLMs sind GPT-4 und LaMDA, mit denen Texte natürlich und interessant klingen können.
KNNs können unterschiedliche Formen und Typen haben, je nachdem, mit welcher Artwork von Daten und Aufgabe sie sich befassen. Convolutional Neural Networks (CNNs) sind eine spezielle Artwork von ANNs für Bilddaten. Neuronen in CNNs sind in drei Dimensionen angeordnet: Höhe, Breite und Tiefe. Die Tiefendimension zeigt, wie viele Filter oder Characteristic-Maps Muster in den Bildern finden. Neuronen in CNNs werden mithilfe von Schichten codiert, die unterschiedliche Aktionen mit den Eingabebildern ausführen.
Rekurrente neuronale Netze (RNNs) sind eine weitere spezielle Artwork von KNNs, die für Daten entwickelt wurden, die in einer Sequenz vorliegen, beispielsweise Textual content, Sprache oder Zeitreihen. RNNs verfügen über Verbindungen, die es dem Netzwerk ermöglichen, sich Informationen aus früheren Eingaben in einem Speicherzustand zu merken und zu verwenden. RNNs können lernen, wie sich die Daten im Laufe der Zeit ändern und was sie in der gesamten Sequenz bedeuten. RNNs können Aufgaben wie das Verstehen von Sprache, das Erkennen von Sprache, das Übersetzen von Sprachen und das Verfassen von Texten übernehmen.
Um die Berechnungen für Deep Studying schneller und einfacher zu machen, sind Grafikprozessoren (GPUs) sehr nützlich geworden. GPUs sind Computerchips, die ursprünglich für die Erstellung von Computergrafiken entwickelt wurden, sich aber auch für Deep-Studying-Aufgaben eignen. GPUs können sehr schnell viele Berechnungen gleichzeitig durchführen. GPUs können die Verarbeitung großer und qualitativ hochwertiger Bilder sowie das Coaching komplexer und tiefer neuronaler Netze beschleunigen. GPUs können auch die Berechnung von Ton- und Sprachmodellen sowie das Erstellen und Ändern von Tonsignalen beschleunigen.
Basis-Modelle (FMs) sind Deep-Studying-Modelle, die auf vielen Daten trainiert werden, die nicht organisiert oder gekennzeichnet sind. Sie können sofort für viele Aufgaben verwendet oder auf bestimmte Aufgaben umgestellt werden, indem sie an kleineren Datensätzen mit Beschriftungen trainiert werden. Das Ändern eines vorab trainierten FM, um bei einer bestimmten Aufgabe bessere Ergebnisse zu erzielen, indem man ihn anhand eines kleineren Datensatzes trainiert, wird als Feinabstimmung bezeichnet. Durch die Feinabstimmung kann das FM lernen und sich an die Particulars und Muster im kleineren Datensatz anpassen.
Unter generativer KI versteht man die erstaunlichen Fähigkeiten FM-basierter Modelle zur Erstellung von Inhalten, die über das hinausgehen, was frühere KI-Modelle leisten konnten. FMs können Texte basierend auf dem erstellen, was ihnen gegeben wird oder was von ihnen verlangt wird, wie zum Beispiel GPT-4 oder LaMDA. FMs können auch Bilder erstellen, die auf dem basieren, was ihnen gesagt oder beschrieben wird, z. B. DALL-E oder CLIP. FMs können auch Töne aus Texten oder anderen Eingaben erzeugen, wie zum Beispiel WaveNet oder Tacotron 2. FMs können auch Dinge tun, bei denen es nicht um die Erstellung von Inhalten geht, wie zum Beispiel herauszufinden, wie sich Menschen aufgrund dessen, was sie sagen, fühlen oder herauszufinden, was mit jemandem nicht stimmt basierend auf ihren Bildern oder Aufzeichnungen.
Künstliche Intelligenz (KI) ist der Bereich der Informatik, der darauf abzielt, Software program zu entwickeln, die in der Lage ist, Aufgaben auszuführen, die typischerweise menschliche Intelligenz erfordern, wie etwa Argumentation, Lernen, Planung und Entscheidungsfindung. Es umfasst verschiedene Techniken und Modelle, darunter große Sprachmodelle (LLMs) und künstliche neuronale Netze (ANNs).
RNNs verfügen über wiederkehrende Verbindungen, die es dem Netzwerk ermöglichen, Informationen aus früheren Eingaben in einem Speicherzustand zu speichern und wiederzuverwenden. RNNs können die zeitlichen Abhängigkeiten und den Kontext in den sequentiellen Daten lernen und Ausgaben generieren, die von der gesamten Sequenz abhängen. RNNs können Aufgaben wie die Verarbeitung natürlicher Sprache, Spracherkennung, maschinelle Übersetzung und Textgenerierung ausführen.
Um den Rechenanforderungen von Deep Studying gerecht zu werden, sind Grafikprozessoren (GPUs) von unschätzbarem Wert geworden. Ursprünglich für Computergrafiken entwickelt, spielen GPUs eine entscheidende Rolle beim effizienten Coaching und Ausführen von Deep-Studying-Modellen und bieten im Vergleich zu herkömmlichen Zentraleinheiten (CPUs) eine erhebliche Rechenleistung. GPUs können die Verarbeitung großer und hochauflösender Bilder sowie das Coaching komplexer und tiefer neuronaler Netze beschleunigen. GPUs können auch die Berechnung akustischer und sprachlicher Modelle sowie die Dekodierung und Synthese von Sprachsignalen beschleunigen.
Generative KI bezieht sich auf die erweiterten Fähigkeiten FM-basierter Modelle zur Generierung von Inhalten und übertrifft frühere KI-Modelle. FMs können Texte in natürlicher Sprache basierend auf einer bestimmten Eingabe oder einem bestimmten Kontext generieren, z. B. GPT-4 oder LaMDA. FMs können Bilder auch basierend auf einer bestimmten Eingabeaufforderung oder Beschreibung generieren, z. B. DALL-E oder CLIP. FMs können auch Sprache aus Textual content oder anderen Eingaben generieren, beispielsweise WaveNet oder Tacotron 2. FMs können auch nicht generativen Zwecken dienen, beispielsweise der Stimmungsklassifizierung auf der Grundlage von Anrufprotokollen oder der medizinischen Diagnose auf der Grundlage von Bildern oder Aufzeichnungen.