Hier ist eine druckfreundliche Ansicht aller Ressourcen.
- Basiswissen/Konzepte:
Was ist KI, ML und NLP?
Einführung in ML und KI – MFML Teil 1 – YouTube
Was ist NLP (Natural Language Processing)? – Youtube
Einführung in die Verarbeitung natürlicher Sprache (NLP)
NLP 2012 Dan Jurafsky und Chris Manning (1.1) Einführung in NLP – YouTube
NLTK mit Python 3 für die Verarbeitung natürlicher Sprache – YouTube
Textdarstellung und Merkmalsextraktion verstehen
- Bag of Phrases, TF-IDF, Worteinbettungen (Word2Vec, GloVe):
NLP-Konzepte: TF-IDF, Bag-of-Words erklärt mit Beispielen – YouTube Berechnen Sie TF-IDF in NLP (einfaches Beispiel)
- Word2Vec und seine Implementierung verstehen
Vorlesung 2 | Wortvektordarstellungen: word2vec – YouTube
Anwendungsbeispiel.
- Textklassifizierung verstehen (Naive Bayes, SVM, Neuronale Netze)
Textklassifizierung mit Naive Bayes | Naiver Bayes-Algorithmus im maschinellen Lernen | Simplelearn – YouTube
Support Vector Machine (SVM) in 2 Minuten – YouTube Neuronale Netze in 5 Minuten erklärt – YouTube
Sequenzlernmodelle
- Einführung in RNNs und LSTMs
Rekurrente neuronale Netze (RNN) und langes Kurzzeitgedächtnis (LSTM) – YouTube Wiederkehrende neuronale Netze (RNNs), anschaulich erklärt!!! – Youtube
- Einführung in Sequenzlernen und Aufmerksamkeitsmechanismen
Stanford CS224N: NLP mit Deep Learning | Winter 2019 | Vorlesung 8 – Übersetzung, Seq2Seq, Aufmerksamkeit – YouTube
Stanford CS224N NLP mit Deep Learning | Winter 2021 | Vorlesung 7 – Übersetzung, Seq2Seq, Aufmerksamkeit – YouTube
2. LLMs (Grundlagenmodelle) 101:
Einführung in Transformatormodelle
Transformers, erklärt: Verstehen Sie das Modell hinter GPT, BERT und T5 – YouTube
Illustrierter Leitfaden zum Transformers Neural Network: Eine Schritt-für-Schritt-Erklärung – YouTube
- Aufmerksamkeitsmechanismus Tiefer Einblick.
Transformer Neural Networks – ERKLÄRT! (Aufmerksamkeit ist alles, was Sie brauchen) – YouTube
Aufmerksamkeitsmechanismus: Übersicht – YouTube
- Encoder-Decoder Tiefer Einblick.
Encoder-Decoder-Architektur: Übersicht – YouTube
Labor:
Encoder-Decoder-Architektur: Exemplarische Vorgehensweise im Labor – YouTube
- Tokenisierung, Einbettung und Kodierung
Was sind Transformer-Modelle und wie funktionieren sie? – Youtube Transformatormodelle (cohere.com)
Einführung in BERT (frühes LLM-Beispiel)
BERT Neural Network – ERKLÄRT! – Youtube
BERT Research – Ep. 1 – Schlüsselkonzepte und Quellen – YouTube
Vorschulung eines LLM
Feinabstimmung von LLMs
Feinabstimmung großer Sprachmodelle – von Sebastian Raschka
3. Erstellen eines Textgenerierungsmodells von Grund auf:
- N-Gramm-Sprachmodell – Anfänger
Generieren von Sätzen mit N-Grammen mit Python – YouTube
- mit RNNs und Seq2seq – Mittelstufe
Textgenerierung mit einem RNN | TensorFlow
Neuronale maschinelle Übersetzung mit Aufmerksamkeit | Text | TensorFlow
- Transformator von Grund auf – Fortgeschritten
Neuronale maschinelle Übersetzung mit einem Transformer und Keras | Text | TensorFlow
Kurz – Pytorch-Transformatoren von Grund auf (Aufmerksamkeit ist alles, was Sie brauchen) – YouTube
Lange Dauer – Transformatoren von Grund auf
4. Verwendung von LLMs
Verwenden vs. Erstellen ($) – Vorab trainierte vs. Trainieren vs. Finetune-LLMs
Verwendung von Modellen von Drittanbietern
-OpenAI
Erste Schritte mit OpenAI API und GPT-3 | Python-Tutorial für Anfänger – YouTube
Einführung – OpenAI-API
🤗 Transformers (huggingface.co)
Sentiment-Modell mit BERT trainieren und mit der Flask-API bereitstellen – YouTube
5. Stellen Sie LLMs in der Produktion bereit
Azure – Endpunkte für Rückschlüsse verwenden – Azure Machine Learning | Microsoft Learn
AWS + Huggingface – Exportieren von 🤗 Transformers-Modellen (huggingface.co)
Google Cloud – Erstellen, optimieren und implementieren Sie Basismodelle mit Vertex AI – YouTube
GitHub – GoogleCloudPlatform/llm-pipeline-examples
- Datenbank bereitstellen (Vector DBs)
LLMOps (LLM Bootcamp) – YouTube
- Bereitstellen + Instruments (Langchain)
LangChain 101: Kurzanleitung – YouTube
Ich hoffe, dies bietet Ihnen einen guten Weg, Ihre Fähigkeiten zu entwickeln. Viel Spaß beim Lernen.