Ein umfassender Leitfaden zum Erlernen von LLMs (Grundmodellen) | von Sre Chakra Yeddula | MLearning.ai | Juni 2023

0
28


Hier ist eine druckfreundliche Ansicht aller Ressourcen.

  1. Basiswissen/Konzepte:

Was ist KI, ML und NLP?

Einführung in ML und KI – MFML Teil 1 – YouTube
Was ist NLP (Natural Language Processing)? – Youtube

Einführung in die Verarbeitung natürlicher Sprache (NLP)

NLP 2012 Dan Jurafsky und Chris Manning (1.1) Einführung in NLP – YouTube
NLTK mit Python 3 für die Verarbeitung natürlicher Sprache – YouTube

Textdarstellung und Merkmalsextraktion verstehen

  • Bag of Phrases, TF-IDF, Worteinbettungen (Word2Vec, GloVe):

NLP-Konzepte: TF-IDF, Bag-of-Words erklärt mit Beispielen – YouTube Berechnen Sie TF-IDF in NLP (einfaches Beispiel)

  • Word2Vec und seine Implementierung verstehen

Vorlesung 2 | Wortvektordarstellungen: word2vec – YouTube

Anwendungsbeispiel.

  • Textklassifizierung verstehen (Naive Bayes, SVM, Neuronale Netze)

Textklassifizierung mit Naive Bayes | Naiver Bayes-Algorithmus im maschinellen Lernen | Simplelearn – YouTube
Support Vector Machine (SVM) in 2 Minuten – YouTube Neuronale Netze in 5 Minuten erklärt – YouTube

Sequenzlernmodelle

  • Einführung in RNNs und LSTMs

Rekurrente neuronale Netze (RNN) und langes Kurzzeitgedächtnis (LSTM) – YouTube Wiederkehrende neuronale Netze (RNNs), anschaulich erklärt!!! – Youtube

  • Einführung in Sequenzlernen und Aufmerksamkeitsmechanismen

Stanford CS224N: NLP mit Deep Learning | Winter 2019 | Vorlesung 8 – Übersetzung, Seq2Seq, Aufmerksamkeit – YouTube
Stanford CS224N NLP mit Deep Learning | Winter 2021 | Vorlesung 7 – Übersetzung, Seq2Seq, Aufmerksamkeit – YouTube

2. LLMs (Grundlagenmodelle) 101:
Einführung in Transformatormodelle
Transformers, erklärt: Verstehen Sie das Modell hinter GPT, BERT und T5 – YouTube
Illustrierter Leitfaden zum Transformers Neural Network: Eine Schritt-für-Schritt-Erklärung – YouTube

  • Aufmerksamkeitsmechanismus Tiefer Einblick.

Transformer Neural Networks – ERKLÄRT! (Aufmerksamkeit ist alles, was Sie brauchen) – YouTube
Aufmerksamkeitsmechanismus: Übersicht – YouTube

  • Encoder-Decoder Tiefer Einblick.

Encoder-Decoder-Architektur: Übersicht – YouTube

Labor:

Encoder-Decoder-Architektur: Exemplarische Vorgehensweise im Labor – YouTube

  • Tokenisierung, Einbettung und Kodierung

Was sind Transformer-Modelle und wie funktionieren sie? – Youtube Transformatormodelle (cohere.com)

Einführung in BERT (frühes LLM-Beispiel)

BERT Neural Network – ERKLÄRT! – Youtube
BERT Research – Ep. 1 – Schlüsselkonzepte und Quellen – YouTube

Vorschulung eines LLM

NLP Demystified 15: Transformers von Grund auf + Vorschulung und Transferlernen mit BERT/GPT – YouTube

Feinabstimmung von LLMs

Feinabstimmung großer Sprachmodelle – von Sebastian Raschka

3. Erstellen eines Textgenerierungsmodells von Grund auf:

  • N-Gramm-Sprachmodell – Anfänger

Generieren von Sätzen mit N-Grammen mit Python – YouTube

  • mit RNNs und Seq2seq – Mittelstufe

Textgenerierung mit einem RNN | TensorFlow
Neuronale maschinelle Übersetzung mit Aufmerksamkeit | Text | TensorFlow

  • Transformator von Grund auf – Fortgeschritten

Neuronale maschinelle Übersetzung mit einem Transformer und Keras | Text | TensorFlow
Kurz – Pytorch-Transformatoren von Grund auf (Aufmerksamkeit ist alles, was Sie brauchen) – YouTube
Lange Dauer – Transformatoren von Grund auf

4. Verwendung von LLMs

Verwenden vs. Erstellen ($) – Vorab trainierte vs. Trainieren vs. Finetune-LLMs

Vortraining vs. Feinabstimmung vs. kontextbezogenes Lernen von LLM (GPT-x) ERKLÄRT | Ultimativer Leitfaden ($) – YouTube

Verwendung von Modellen von Drittanbietern

-OpenAI

Erste Schritte mit OpenAI API und GPT-3 | Python-Tutorial für Anfänger – YouTube
Einführung – OpenAI-API

🤗 Transformers (huggingface.co)
Sentiment-Modell mit BERT trainieren und mit der Flask-API bereitstellen – YouTube

5. Stellen Sie LLMs in der Produktion bereit

Azure – Endpunkte für Rückschlüsse verwenden – Azure Machine Learning | Microsoft Learn

AWS + Huggingface – Exportieren von 🤗 Transformers-Modellen (huggingface.co)

Google Cloud – Erstellen, optimieren und implementieren Sie Basismodelle mit Vertex AI – YouTube

GitHub – GoogleCloudPlatform/llm-pipeline-examples

  • Datenbank bereitstellen (Vector DBs)

Vektordatenbanken und große Sprachmodelle // Samuel Partee // LLMs in Production Conference – YouTube

LLMOps (LLM Bootcamp) – YouTube

  • Bereitstellen + Instruments (Langchain)

LangChain 101: Kurzanleitung – YouTube

Ich hoffe, dies bietet Ihnen einen guten Weg, Ihre Fähigkeiten zu entwickeln. Viel Spaß beim Lernen.



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here