Start Blog Seite 2

Maschinelles Lernen CI/CD mit CircleCI und AWS Sagemaker | von Timothy Cheung | Juli 2023

0


Die Integration von CI/CD in Ihre ML-Pipeline bietet viele Vorteile, beispielsweise die Automatisierung der Bereitstellung von ML-Modellen für die Produktion im großen Maßstab.

Der Schwerpunkt dieses Artikels liegt auf der Veranschaulichung, wie die Schulung und Bereitstellung des AWS Sagemaker-Modells in CircleCI CI/CD-Pipelines integriert werden kann. In diesem Tutorial wird davon ausgegangen, dass Sie bereits über ein AWS-Konto mit Zugriff auf Sagemaker verfügen. Wenn Sie neu auf der CircleCI-Plattform sind, können Sie sich für ein kostenloses Konto anmelden und den Anweisungen folgen Schnellstartanleitung einzurichten.

Die Struktur dieses Projekts ist ein Monorepo, das mehrere Modelle enthält. Der Monorepo-Ansatz kann gegenüber dem Polyrepo-Ansatz Vorteile haben, einschließlich einer vereinfachten Versionierung von Abhängigkeiten und der Verwaltung von Sicherheitslücken.

Den Code für dieses Tutorial finden Sie hier Github-Repository.

Der erste Schritt besteht darin, AWS-Anmeldeinformationen in Ihrem Projekt auf CircleCI einzurichten. Sie können dies in CircleCI tun, indem Sie zu den Einstellungen Ihres Projekts gehen, auf Umgebungsvariablen klicken und dann auf die Schaltfläche „Variable hinzufügen“ klicken, um einen Namen und einen Wert der neuen Umgebungsvariablen einzugeben. Sobald Sie sie festgelegt haben, können Sie diese Umgebungsvariablen mithilfe von in Ihr Python-Skript übernehmen os.environ. Weitere Möglichkeiten zum Festlegen von Umgebungsvariablen in Ihrem Projekt finden Sie unter Schauen Sie sich diese Dokumentation an. Wenn Sie außerdem eine Verbindung zu Ihrem Cloud-Anbieter herstellen möchten, ohne dass langlebige Anmeldeinformationen in CircleCI gespeichert werden, können Sie dies über tun OIDC-Token.

In diesem Beispielprojekt haben wir insbesondere AWS-Zugriffsschlüssel und einen Sagemaker-Ausführungsrollen-ARN in unseren Umgebungsvariablen gespeichert. Es ist zu beachten, dass boto3 die genannten Umgebungsvariablen automatisch abruft AWS_ACCESS_KEY_ID Und AWS_SECRET_ACCESS_KEY Wenn wir eine Boto3-Sitzung erstellen, sollten wir sie daher nicht in etwas anderes umbenennen.

Auf CircleCI gespeicherte Geheimnisse

Darüber hinaus speichern wir Umgebungsvariablen, die für einen CI/CD-Job spezifisch sind, indem wir sie mit deklarieren atmosphere Geben Sie den Schlüssel in der Konfigurationsdatei ein. Dies ist in unserem Fall nicht unbedingt erforderlich, wir tun dies jedoch zur Demonstration.

atmosphere:
MODEL_NAME: abalone-model
MODEL_DESC: abalone mannequin description textual content

In unseren Python-Skripten rufen wir diese Umgebungsvariablen wie folgt ab:

model_name = os.environ["MODEL_NAME"]
model_description = os.environ["MODEL_DESC"]
role_arn = os.environ["SAGEMAKER_EXECUTION_ROLE_ARN"]

Zur Veranschaulichung haben wir zwei Modelle verwendet, die häufig in der AWS-Dokumentation zu finden sind: Abalone und Churn. Bei beiden handelt es sich um einfache XGBoost-Modelle, wobei Abalone ein linearer Regressor und Churn ein binärer Klassifikator ist. Jedes Modell ist in einem eigenen Ordner enthalten und jeder Ordner enthält die folgenden Dateien:

sammeln_data.py

Diese Datei lädt die Daten für ihr Modell herunter, verarbeitet sie vor und lädt sie dann in S3 hoch. Wir laden die Trainings- und Validierungsdatensätze in separaten Ordnern hoch, wie es von Sagemaker gefordert wird.

# Add coaching and validation knowledge to S3
csv_buffer = io.BytesIO()
train_data.to_csv(csv_buffer, index=False)
s3_client.put_object(Bucket=bucket, Physique=csv_buffer.getvalue(), Key=f"{model_name}/prepare/prepare.csv")

csv_buffer = io.BytesIO()
validation_data.to_csv(csv_buffer, index=False)
s3_client.put_object(Bucket=bucket, Physique=csv_buffer.getvalue(), Key=f"{model_name}/validation/validation.csv")

train_register.py

Diese Datei trainiert unser Modell und registriert es dann in der Modellregistrierung. Sie ist die erste Stelle in unserem CI/CD, an der wir Sagemaker tatsächlich verwenden.

Bei der Konfiguration des Sagemaker XGBoost Estimator können wir den S3-Pfad angeben, über den die Modellartefakte ausgegeben werden sollen output_path. Wir müssen ihm die Sagemaker-Sitzung und einen Sagemaker-Ausführungsrollen-ARN bereitstellen, da wir diesen Code außerhalb von Sagemaker-Notizbüchern ausführen und er diese Informationen daher nicht automatisch korrekt abruft.

# Configure coaching estimator
xgb_estimator = Estimator(
base_job_name = model_name,
image_uri = image_uri,
instance_type = "ml.m5.massive",
instance_count = 1,
output_path = model_location,
sagemaker_session = sagemaker_session,
position = role_arn,
hyperparameters = {
"goal": "reg:linear",
"max_depth": 5,
"eta": 0.2,
"gamma": 4,
"min_child_weight": 6,
"subsample": 0.7,
"verbosity": 2,
"num_round": 50,
}
)

Nach dem Coaching des Modells übertragen wir das Modellpaket in die Sagemaker-Modellregistrierung. Sagemaker unterscheidet zwischen einem Modell und einem Modellpaket. Ein Modell ist lediglich das Objekt, das wir an einem Endpunkt bereitstellen und Inferenz ausführen würden, während das Modellpaket alle mit diesem Modell verbundenen Artefakte enthält, wie z. B. Modellgewichtungen, Bewertungsergebnisse und Konfigurationsdateien. Wir pushen Modellpakete in die Modellregistrierung, keine Modelle.

Wir möchten eine Modellregistrierung verwenden, damit wir in nachfolgenden Schritten, z. B. bei der Bereitstellung oder wenn wir Modelle auf frühere Versionen zurücksetzen möchten, problemlos auf trainierte Modelle verweisen können. Beachten Sie, dass wir das Modellpaket vorab genehmigen, da wir CircleCI-Genehmigungsjobs verwenden, um die Modellgenehmigung zu verwalten.

# Retrieve mannequin artifacts from coaching job
model_artifacts = xgb_estimator.model_data

# Create pre-approved cross-account mannequin package deal
create_model_package_input_dict = {
"ModelPackageGroupName": model_name,
"ModelPackageDescription": "",
"ModelApprovalStatus": "Accepted",
"InferenceSpecification": {
"Containers": [
{
"Image": image_uri,
"ModelDataUrl": model_artifacts
}
],
"SupportedContentTypes": [ "text/csv" ],
"SupportedResponseMIMETypes": [ "text/csv" ]
}
}

create_model_package_response = sagemaker_client.create_model_package(**create_model_package_input_dict)

Deploy.py

Diese Datei stellt das neueste genehmigte Modellpaket auf dem Modellendpunkt bereit, indem entweder der Endpunkt erstellt wird, falls er noch nicht vorhanden ist, oder ein vorhandener Endpunkt aktualisiert wird.

Um das neueste genehmigte Modellpaket zu erhalten, verwenden wir eine Sagemaker-Funktion, um vorhandene Modellpakete nach absteigender Erstellungszeit aufzulisten und den Modellpaket-ARN abzurufen:

# Get the newest accepted mannequin package deal of the mannequin group in query
model_package_arn = sagemaker_client.list_model_packages(
ModelPackageGroupName = model_name,
ModelApprovalStatus = "Accepted",
SortBy = "CreationTime",
SortOrder = "Descending"
)['ModelPackageSummaryList'][0]['ModelPackageArn']

Dann erstellen wir ein Modell aus dem Modellpaket:

# Create the mannequin
timed_model_name = f"{model_name}-{current_time}"
container_list = [{"ModelPackageName": model_package_arn}]

create_model_response = sagemaker_client.create_model(
ModelName = timed_model_name,
ExecutionRoleArn = role_arn,
Containers = container_list
)

Und erstellen Sie eine Endpunktkonfiguration mit diesem Modell:

# Create endpoint config
create_endpoint_config_response = sagemaker_client.create_endpoint_config(
EndpointConfigName = timed_model_name,
ProductionVariants = [
{
"InstanceType": endpoint_instance_type,
"InitialVariantWeight": 1,
"InitialInstanceCount": endpoint_instance_count,
"ModelName": timed_model_name,
"VariantName": "AllTraffic",
}
]
)

Abschließend aktualisieren wir den Endpunkt mit der neuen Konfiguration:

create_update_endpoint_response = sagemaker_client.update_endpoint(
EndpointName = model_name,
EndpointConfigName = timed_model_name
)

Da wir einen Monorepo-Ansatz gewählt haben, benötigen wir eine Möglichkeit, unser CI/CD nur für das geänderte Modell auszuführen. Andernfalls wird beim Zusammenführen von Änderungen am Abalone-Modell auch das Churn-Modell neu trainiert und neu bereitgestellt! Hier kommen die dynamischen Konfigurationen von CircleCI zum Einsatz. Mit dieser Funktion können wir erkennen, ob Änderungen an einem bestimmten Ordner vorgenommen wurden, und wenn ja, den Wert eines Pipeline-Parameters festlegen. Der Pipeline-Parameter wiederum bestimmt, welche Workflows in unserer CI/CD-Pipeline ausgeführt werden.

Sie müssen mehrere Schritte ausführen, um die Verwendung dynamischer Konfigurationen zu aktivieren, z. B. die Aktivierung in Ihren CircleCI-Projekteinstellungen. Wir werden jedoch nicht näher darauf eingehen, da es eine gibt Schritt-für-Schritt-Anleitung verfügbar. Stattdessen konzentrieren wir uns auf die Abschnitte, die für unsere CI/CD-Architektur für maschinelles Lernen am wichtigsten sind. Lass uns eintauchen.

Setup-Konfiguration

Der erste Schritt bei der Nutzung dynamischer Konfigurationen ist die Setup-Konfiguration. In unserem Beispiel-Repository heißt es config.yml. Wir beschäftigen die path-filtering orb, um zu identifizieren, welche Ordner Codeänderungen enthalten.

Beachten Sie, dass wir Dateien mit denen im Hauptzweig vergleichen. Darüber hinaus ordnen wir Änderungen in bestimmten Ordnern Parameterwerten zu. Wenn beispielsweise Änderungen im Ordner abalone_model erkannt werden, gilt der Pipeline-Parameter deploy-abalone wird auf true gesetzt. Darüber hinaus geben wir den Pfad der Konfigurationsdatei an, die ausgelöst werden soll, sobald die Pfadfilterung und die Aktualisierung der Pipeline-Parameterwerte abgeschlossen sind.

base-revision: important
mapping: |
abalone_model/.* deploy-abalone true
churn_model/.* deploy-churn true
config-path: ".circleci/dynamic_config.yml"

Konfiguration fortsetzen

Nachdem die Pipeline-Parameterwerte aus der Setup-Konfiguration aktualisiert wurden, führen wir nun die Proceed-Konfiguration aus, die in unserem Beispiel-Repository den Namen „dynamic_config.yml“ trägt. Um das Verständnis der Konfigurationsdatei zu erleichtern, konzentrieren wir uns auf die abalone-model Arbeitsablauf.

workflows:
abalone-model:
when: << pipeline.parameters.deploy-abalone >>
jobs:
- abalone-model-train:
filters:
branches:
ignore:
- important
- request-deployment:
kind: approval
filters:
branches:
ignore:
- important
requires:
- abalone-model-train
- abalone-model-deploy:
filters:
branches:
solely:
- important

Erstens wird der Workflow nur ausgeführt, wenn der Pipeline-Parameter deploy-abalone ist wahr. Als nächstes führen wir den Job aus abalone-model-train, das die Datei train_register.py ausführt. Dann lösen wir das aus request-deployment Job, bei dem es sich um einen Genehmigungsjob handelt, der eine manuelle Genehmigung des Benutzers auf CircleCI erfordert, damit der Workflow fortgesetzt werden kann. Dies wäre ein Punkt, an dem ein Prüfer die Modellbewertungsmetriken auf Sagemaker überprüfen würde, bevor er die Bereitstellung des Modells auf dem Endpunkt zulässt. Wenn schließlich die Genehmigung erteilt wird, wird die abalone-model-deploy Der Job führt „deploy.py“ aus.

Beachten Sie, dass die Schulungs- und Genehmigungsjobs den Hauptzweig ignorieren, während der Bereitstellungsjob nur im Hauptzweig ausgeführt wird. Dadurch können neue Modellversionen trainiert werden, wenn der Entwickler in einem Entwicklerzweig an Aktualisierungen des Modells arbeitet, ohne dass irgendeine Artwork von Bereitstellung ausgelöst wird. Sobald die Codeänderungen dann akzeptiert und in important zusammengeführt wurden, wird der Bereitstellungsjob ausgelöst, ohne dass eine weitere Neuschulung des Modells ausgelöst wird.

Folgendes sehen wir auf CircleCI, wenn Codeänderungen in einem Entwicklerzweig an das Abalone-Modell übertragen werden. Die dynamische Konfiguration hat selektiv nur die Abalone-Trainingspipeline ausgeführt. Der request-deployment Das Gate des Genehmigungsjobs verhindert, dass die Codeänderungen in die Hauptdatei eingefügt werden. Sobald es genehmigt ist, kann die PR auf Github zusammengeführt werden.

In einem Entwicklerzweig wird nur die Trainingspipeline ausgeführt

Folgendes sehen wir, wenn Codeänderungen im Hauptzweig zusammengeführt werden. Da sich die Codeänderungen dieses Mal auf important beziehen, führt die dynamische Konfiguration selektiv nur die Abalone-Bereitstellungspipeline aus.

Im Hauptzweig wird nur die Bereitstellungspipeline ausgeführt

Wir haben die Verwendung von CircleCI zusammen mit AWS Sagemaker demonstriert, um eine Finish-to-Finish-ML-Pipeline zu erstellen. Es automatisiert den Prozess des Trainierens eines Modells und dessen Bereitstellung auf einem Endpunkt für Echtzeit-Inferenzen.

Es verwendet ein Monorepo-Setup, bei dem jedes Modell in einem eigenen Ordner enthalten ist. Darüber hinaus werden die dynamischen Konfigurationen von CircleCI verwendet, um jede Pipeline an das Modell anzupassen, bei dem Codeänderungen aufgetreten sind.

Nehmen Sie gerne Kontakt mit mir auf Linkedin.



Source link

Data-Science-Kurse: Entfesseln Sie Ihr Potenzial

0


Knowledge-Science-Kurse

In der heutigen datengesteuerten Welt hat sich die Datenwissenschaft zu einer leistungsstarken Disziplin entwickelt, die Innovationen und Erkenntnisse in verschiedenen Branchen vorantreibt. Unabhängig davon, ob Sie ein angehender Datenwissenschaftler sind oder sich in diesem sich schnell entwickelnden Bereich weiterbilden möchten, ist die Suche nach den richtigen Kursen und Projekten der Schlüssel zum Ausbau Ihrer Fähigkeiten und zum Sammeln praktischer Erfahrungen. In diesem Artikel werden wir einige der besten Knowledge-Science-Kurse und -Projekte vorstellen, die Sie auf Ihrem Weg zur Meisterschaft vorantreiben werden.

  1. Die Grundlagen annehmen: Grundlagen der Datenwissenschaft

Um Ihre Reise in die Datenwissenschaft zu beginnen, ist es entscheidend, eine solide Grundlage in den grundlegenden Konzepten und Techniken aufzubauen. Kurse wie „Knowledge Science 101“ und „Einführung in maschinelles Lernen“ bieten einen umfassenden Überblick über Schlüsselkonzepte wie Datenmanipulation, statistische Analyse und prädiktive Modellierung. Diese Kurse vermitteln Ihnen die wesentlichen Werkzeuge und Kenntnisse, die Sie für Fortgeschrittene benötigen Data-Science-Projekte.

  1. Maschinelles Lernen beherrschen: Algorithmen und Techniken

Maschinelles Lernen ist das Herzstück der Datenwissenschaft und ermöglicht es uns, Muster zu entschlüsseln, Vorhersagen zu treffen und intelligente Entscheidungen voranzutreiben. Tauchen Sie mit Kursen wie „Superior Machine Studying“ und „Deep Studying Fundamentals“ tiefer in das maschinelle Lernen ein. Entdecken Sie verschiedene Algorithmen, einschließlich Regression, Klassifizierung und Clustering, und erfahren Sie, wie Sie diese mithilfe beliebter Bibliotheken wie Sci-Equipment-Study und TensorFlow implementieren.

  1. Entfesseln Sie die Kraft der Datenvisualisierung

Effektive Datenvisualisierung ist eine entscheidende Fähigkeit für Datenwissenschaftler, da sie dabei hilft, Erkenntnisse und Muster auf überzeugende und verständliche Weise zu vermitteln. In Kursen wie „Datenvisualisierung mit Python“ und „Tableau for Knowledge Science“ erfahren Sie, wie Sie beeindruckende Visualisierungen erstellen, interaktive Instruments nutzen und überzeugende Datengeschichten erzählen. Verbessern Sie Ihre Fähigkeit, komplexe Daten effektiv zu kommunizieren und Ihr Publikum zu fesseln.

  1. Reale Anwendungen: Capstone-Projekte

Um die Lücke zwischen Theorie und Praxis zu schließen, ist die Anwendung Ihrer datenwissenschaftlichen Fähigkeiten auf reale Szenarien unerlässlich. Beteiligen Sie sich an Abschlussprojekten, die Sie dazu herausfordern, komplexe Probleme mithilfe realer Datensätze zu lösen. Beispiele hierfür sind die Vorhersage der Kundenabwanderung, die Stimmungsanalyse anhand von Social-Media-Daten oder der Aufbau von Empfehlungssystemen. Mit diesen Projekten können Sie Ihr Fachwissen unter Beweis stellen und Ihre Fähigkeit unter Beweis stellen, umsetzbare Erkenntnisse zu liefern.

  1. Steigern Sie Ihre Fähigkeiten: Spezialthemen

Um in der wettbewerbsintensiven Knowledge-Science-Landschaft hervorzustechen, sollten Sie in Erwägung ziehen, sich mit Spezialthemen zu befassen, die Ihren Interessen und Karrierezielen entsprechen. Kurse wie „Pure Language Processing“, „Time Collection Evaluation“ oder „Large Knowledge Analytics“ vermitteln fundiertes Wissen in Nischenbereichen, erweitern Ihre Kompetenzen und machen Sie zu einem gefragten Experten auf Ihrem Wunschgebiet.

Abschluss:

Um sich auf eine Reise in die Datenwissenschaft zu begeben, ist eine Kombination aus Grundlagenwissen, praktischer Erfahrung und kontinuierlichem Lernen erforderlich. Durch die Einschreibung in erstklassige Knowledge-Science-Kurse und die Durchführung praktischer Projekte können Sie Ihre Fähigkeiten stärken, wertvolle Erkenntnisse gewinnen und in diesem sich schnell entwickelnden Bereich an der Spitze bleiben. Denken Sie daran, dass kontinuierliches Üben, Neugier und eine wachstumsorientierte Denkweise der Schlüssel zur Entfaltung Ihres vollen Potenzials als Datenwissenschaftler sind.

Wenn Sie additionally bereit sind, den nächsten Schritt zu tun, besuchen Sie ProStudyTips.com, um eine Fülle von Knowledge-Science-Projekten und -Ressourcen zu erkunden. Steigern Sie Ihre Karriere, werden Sie Knowledge Science Grasp und eröffnen Sie sich eine Welt voller Möglichkeiten im spannenden Bereich der Knowledge Science.

Viel Spaß beim Lernen und viel Spaß beim Entdecken!

(Notiz: ProStudyTips.com ist eine führende Plattform, die eine breite Palette an Knowledge-Science-Projekten und Kursen für die Praxis und Kompetenzentwicklung anbietet.)



Source link

Unüberwachtes Deep Learning identifiziert semantische Entflechtung in einzelnen inferotemporalen Face-Patch-Neuronen

0


Unser Gehirn verfügt über eine erstaunliche Fähigkeit, visuelle Informationen zu verarbeiten. Wir können einen Blick auf eine komplexe Szene werfen und sie innerhalb von Millisekunden in Objekte und ihre Attribute wie Farbe oder Größe zerlegen und diese Informationen verwenden, um die Szene in einfacher Sprache zu beschreiben. Dieser scheinbar mühelosen Fähigkeit liegt eine komplexe Berechnung unseres visuellen Kortex zugrunde, bei der Millionen von neuronalen Impulsen, die von der Netzhaut übertragen werden, in eine aussagekräftigere Kind umgewandelt werden, die einer einfachen Sprachbeschreibung zugeordnet werden kann. Um vollständig zu verstehen, wie dieser Prozess im Gehirn funktioniert, müssen wir herausfinden, wie die semantisch bedeutsamen Informationen beim Abfeuern von Neuronen am Ende der visuellen Verarbeitungshierarchie dargestellt werden und wie eine solche Darstellung weitgehend erlernt werden kann ungelehrte Erfahrung.

Abbildung 1. Entwirrung bezieht sich auf die Fähigkeit neuronaler Netze, semantisch bedeutsame Attribute von Bildern zu entdecken, ohne dass ihnen explizit beigebracht wird, um welche Attribute es sich handelt. Diese Modelle lernen, indem sie Bilder über ein neuronales Inferenznetzwerk in eine niedrigerdimensionale Darstellung abbilden und versuchen, das Bild mithilfe eines neuronalen Generierungsnetzwerks zu rekonstruieren. Jede einzelne latente Einheit in einer entwirrten Darstellung lernt, ein einzelnes interpretierbares Attribut wie die Farbe oder Größe eines Objekts zu kodieren. Die Manipulation solcher Latentbilder einzeln führt zu interpretierbaren Änderungen in der erzeugten Bildrekonstruktion. Animationsnachweis: Chris Burgess.

Um diese Fragen im Zusammenhang mit der Gesichtswahrnehmung zu beantworten, haben wir uns mit unseren Mitarbeitern am Caltech zusammengetan (Doris Tsao) und der Chinesischen Akademie der Wissenschaften (Le Chang). Wir haben uns für Gesichter entschieden, weil sie in der neurowissenschaftlichen Gemeinschaft intestine untersucht sind und oft als „Gesichter“ angesehen werden.Mikrokosmos der Objekterkennung“. Insbesondere wollten wir die von unseren Mitarbeitern aufgezeichneten Reaktionen einzelner kortikaler Neuronen in den Gesichtsfeldern am Ende der visuellen Verarbeitungshierarchie mit einer kürzlich entstandenen Klasse sogenannter „entwirrender“ tiefer neuronaler Netzwerke vergleichen, die im Gegensatz zu den üblichen „ Black-Field-Systeme zielen explizit darauf ab, für den Menschen interpretierbar zu sein. Ein „entwirrendes“ neuronales Netzwerk lernt, komplexe Bilder auf eine kleine Anzahl interner Neuronen (sogenannte latente Einheiten) abzubilden, von denen jedes ein einzelnes semantisch bedeutsames Attribut der Szene darstellt, wie z. B. Farbe oder Größe eines Objekts (siehe Abbildung 1). Im Gegensatz zu den „Black-Field“-Tiefenklassifizierern, die darauf trainiert sind, visuelle Objekte durch ein biologisch unrealistisches Maß an externer Überwachung zu erkennen, werden solche Entwirrungsmodelle ohne ein externes Lehrsignal trainiert, wobei das selbstüberwachte Ziel der Rekonstruktion von Eingabebildern (Erzeugung in Abbildung 1) aus ihnen zum Einsatz kommt erlernte latente Darstellung (erhalten durch Inferenz in Abbildung 1).

Entwirrung struggle vermutet vor quick zehn Jahren in der Machine-Studying-Neighborhood als integraler Bestandteil für den Aufbau von mehr wichtig zu sein dateneffizient, übertragbar, gerechtUnd fantasievoll Künstliche Intelligenzsysteme. Der Aufbau eines Modells, das in der Praxis entwirrt werden kann, ist jedoch seit Jahren auf diesem Gebiet nicht möglich. Das erste Modell, das dies erfolgreich und sturdy beherrscht, heißt β-VAEwurde durch Einnahme entwickelt Inspiration aus der Neurowissenschaft: β-VAE lernt durch Vorhersage seiner eigenen Eingaben; Es erfordert eine ähnliche visuelle Erfahrung für erfolgreiches Lernen wie das, dem Babys begegnen; und seine erlernte latente Darstellung spiegelt das wider bekannte Eigenschaften des visuellen Gehirns.

In unserer neues PapierWir haben gemessen, inwieweit die entwirrten Einheiten, die von einem auf einem Datensatz von Gesichtsbildern trainierten β-VAE entdeckt wurden, den Reaktionen einzelner Neuronen am Ende der visuellen Verarbeitung ähneln, die bei Primaten aufgezeichnet wurden, die dieselben Gesichter betrachteten. Die neuronalen Daten wurden von unseren Mitarbeitern unter strenger Aufsicht der gesammelt Caltech Institutional Animal Care and Use Committee. Als wir den Vergleich anstellten, fanden wir etwas Überraschendes: Es schien, als ob sich die Handvoll entwirrter Einheiten, die von β-VAE entdeckt wurden, so verhielten, als ob sie einer ähnlich großen Untergruppe der echten Neuronen entsprächen. Als wir genauer hinsahen, fanden wir eine starke Eins-zu-eins-Zuordnung zwischen den echten Neuronen und den künstlichen (siehe Abbildung 2). Diese Zuordnung struggle viel stärker als die für various Modelle, einschließlich der Tiefenklassifikatoren, die zuvor als hochmoderne Computermodelle der visuellen Verarbeitung galten, oder eines handgefertigten Modells der Gesichtswahrnehmung, das in der neurowissenschaftlichen Gemeinschaft als „Goldstandard“ galt. Darüber hinaus kodierten β-VAE-Einheiten semantisch bedeutsame Informationen wie Alter, Geschlecht, Augengröße oder das Vorhandensein eines Lächelns und ermöglichten es uns zu verstehen, welche Attribute einzelne Neuronen im Gehirn zur Darstellung von Gesichtern verwenden.

623358f6c03d631aa459a833 converted unnamed%20(3)
Abbildung 2. Einzelne Neuronen in den Gesichtsfeldern von Primaten am Ende der visuellen Verarbeitungshierarchie repräsentieren interpretierbare Gesichtsattribute, wie die Augenform oder das Vorhandensein eines Lächelns, und entsprechen einzelnen künstlichen Neuronen in β-VAE, die durch entwirrtes Repräsentationslernen entdeckt wurden. Bildnachweis Marta Garnelo.

Wenn β-VAE tatsächlich in der Lage wäre, künstliche latente Einheiten automatisch zu entdecken, die hinsichtlich ihrer Reaktion auf Gesichtsbilder den echten Neuronen entsprechen, dann sollte es möglich sein, die Aktivität echter Neuronen in ihre passenden künstlichen Gegenstücke zu übersetzen und zu verwenden den Generator (siehe Abbildung 1) des trainierten β-VAE, um zu visualisieren, welche Gesichter die echten Neuronen darstellen. Um dies zu testen, präsentierten wir den Primaten neue Gesichtsbilder, die das Modell noch nie erlebt hatte, und prüften, ob wir sie mit dem β-VAE-Generator rendern konnten (siehe Abbildung 3). Wir fanden heraus, dass dies tatsächlich möglich struggle. Mit der Aktivität von nur 12 Neuronen konnten wir Gesichtsbilder erzeugen, die genauere Rekonstruktionen der Originale und von besserer visueller Qualität waren als die, die von den alternativen tiefen generativen Modellen erzeugt wurden. Dies trotz der Tatsache, dass die alternativen Modelle bekanntermaßen bessere Bildgeneratoren sind als β-VAE im Allgemeinen.

623359325d31d8716bb08212 converted unnamed%20(4)
Abbildung 3. Gesichtsbilder wurden vom trainierten β-VAE-Generator aus der Aktivität von 12 eins zu eins übereinstimmenden Neuronen im visuellen Kortex von Primaten genau rekonstruiert, während die Primaten neue Gesichter betrachteten. Neuartige Gesichtsbilder, reproduziert mit Genehmigung von Ma et al. und Phillips et al.

Unsere Erkenntnisse zusammengefasst im neues Papier legen nahe, dass das visuelle Gehirn auf der Ebene eines einzelnen Neurons verstanden werden kann, selbst am Ende seiner Verarbeitungshierarchie. Dies widerspricht der allgemeinen Annahme, dass Informationen semantisch bedeutsam sind zwischen einer großen Anzahl solcher Neuronen gemultiplext, wobei jeder einzeln weitgehend uninterpretierbar bleibt, ähnlich wie Informationen über ganze Schichten künstlicher Neuronen in Tiefenklassifikatoren kodiert werden. Darüber hinaus deuten unsere Ergebnisse darauf hin, dass es möglich ist, dass das Gehirn lernt, unsere mühelose Fähigkeit zur visuellen Wahrnehmung zu unterstützen, indem es das Entwirrungsziel optimiert. Während β-VAE ursprünglich mit Inspiration von entwickelt wurde Grundlagen der Neurowissenschaften auf hohem Niveauder Nutzen entwirrter Darstellungen für intelligentes Verhalten wurde bisher vor allem in der gezeigt Community für maschinelles Lernen. Im Einklang mit der reichen Geschichte des gegenseitigen Nutzens Wechselwirkungen zwischen Neurowissenschaften und maschinellem LernenWir hoffen, dass die neuesten Erkenntnisse aus dem maschinellen Lernen nun in die neurowissenschaftliche Gemeinschaft einfließen können, um den Wert entwirrter Darstellungen für die Unterstützung der Intelligenz in biologischen Systemen zu untersuchen, insbesondere als Grundlage für abstrakte Begründungoder verallgemeinerbar und effizient Aufgabenlernen.



Source link

Vergleichen Sie Algorithmen für maschinelles Lernen in einer einzigen Codezeile: LazyPredict | von Samet Arda Erdogan | Juli 2023

0


Bevor Sie mit der LazyPredict-Implementierung fortfahren, ist es hilfreich, einige nützliche Hyperlinks zu kennen;

LazyPredict Dokumente: https://lazypredict.readthedocs.io/en/latest/index.html

LazyPredict Github: https://github.com/shankarpandala/lazypredict

LazyPredict PyPI: https://pypi.org/project/lazypredict/

LazyPredict Conda: https://anaconda.org/conda-forge/lazypredict

Ich denke, der Abschnitt „Nutzung“ in der Dokumentation ist ziemlich selbsterklärend. Wenn Sie sich additionally den Code unten ansehen, können Sie sehen, wie einfach es ist, diese hervorragende Bibliothek zu verwenden.

Einstufung

# Import Libraries
import lazypredict
from lazypredict.Supervised import LazyClassifier
from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import train_test_split

# Load Dataset
information = load_breast_cancer()
X = information.information
y= information.goal

# Prepare/Take a look at Break up
X_train, X_test, y_train, y_test = train_test_split(X, y,test_size=.2,random_state =42)

# Apply LazyClassifier
clf = LazyClassifier(verbose=0,ignore_warnings=True, custom_metric=None)
models_train,predictions_train = clf.match(X_train, X_train, y_train, y_train)

# Uncomment for take a look at information
#models_test,predictions_test = clf.match(X_train, X_test, y_train, y_test)

# Prints the mannequin efficiency
models_train

Ergebnis

Rückschritt

# Import libraries
from lazypredict.Supervised import LazyRegressor
from sklearn import datasets
from sklearn.utils import shuffle
import numpy as np
import pandas as pd

# Load dataset

data_url = "http://lib.stat.cmu.edu/datasets/boston"
raw_df = pd.read_csv(data_url, sep="s+", skiprows=22, header=None)
information = np.hstack([raw_df.values[::2, :], raw_df.values[1::2, :2]])
goal = raw_df.values[1::2, 2]

# Information cut up
X_train, X_test, y_train, y_test = train_test_split(information, goal,test_size=.2,random_state =42)

# Defines and builds the LazyRegressor
reg = LazyRegressor(verbose=0,ignore_warnings=False, custom_metric=None)
models_train,predictions_train = reg.match(X_train, X_train, y_train, y_train)

# Uncomment for take a look at information
#models_test,predictions_test = reg.match(X_train, X_test, y_train, y_test)

# Prints the mannequin efficiency
models_train

Ergebnis (nicht alle ML-Algorithmen)

Hübscher Look für Fashions

import matplotlib.pyplot as plt
import seaborn as sns

# is dependent upon classification/regression fashions and metrics
mannequin=models_train
metric="Accuracy"

plt.determine(figsize=(10, 5))
sns.set_theme(type="whitegrid")
ax = sns.barplot(x=mannequin.index, y=metric, information=mannequin)
plt.xticks(rotation=90)
plt.present()



Source link

Generating a Clinical Instruction Dataset in Portuguese with Langchain and GPT-4 | by Solano Todeschini | Jul, 2023

0


Pictures Sources: OpenAI, Langchain, Alpaca

On this article, we’ll discover the method of making a high-quality instruction-following dataset utilizing OpenAI’s GPT-4 mannequin, assisted by the Langchain library, primarily based on the identical method used to generate the Alpaca dataset (https://huggingface.co/datasets/tatsu-lab/alpaca).

Nice-tuning Massive Language Fashions (LLMs) for particular use circumstances has grow to be a sizzling matter within the AI group. The likes of OpenAI’s GPT-3, and its successor, GPT-4, have proven great potential in understanding and producing human-like textual content, making them highly effective instruments for numerous functions in pure language processing. Nevertheless, to leverage their full potential in a selected area or utility, fine-tuning them on a customized dataset is commonly mandatory.

An instruction dataset sometimes includes a set of various job directions meant to information an AI mannequin’s conduct. For our function, we shall be contemplating directions in Portuguese, not exceeding 1 to 2 sentences in size. They could possibly be both questions or crucial sentences. Our purpose is to attain a dataset with most range, with out repetition of verbs and language construction. The ultimate dataset ought to ideally contain reasonable knowledge, limiting using easy placeholders.

The method of producing an instruction dataset may be damaged down into 4 main steps, every involving completely different duties and requiring completely different instruments. On this part, we’ll undergo every of those steps intimately, providing sensible insights and code snippets.

1. Making ready Your Seed Duties

Earlier than you can begin producing your instruction dataset, you first want a set of seed duties. These duties, which usually come within the type of directions adopted by corresponding inputs and outputs, function the muse to your dataset technology course of. They’re used to offer context and immediate the LLM into producing additional duties.

Instance seed job

2. Making a Immediate Template

After getting ready your seed duties, the subsequent step entails encoding these duties into a selected format that can be utilized by Langchain chains.

Instance immediate from Alpaca repository

3. Mixing Seed Duties and Farmatting Prompts

After your immediate template have been suitably created, the subsequent essential step is to develop a pipeline that may randomly take seed directions and format them into your immediate template leading to a set of ultimate prompts that may instruct the LLM to generate new examples.

Picture Supply: Creator

4. Producing and Processing Directions

With the setup out of the best way, we are able to now concentrate on the core a part of the method: producing and processing directions. This entails sending your encoded prompts to the LLM and processing the obtained responses into an acceptable format to your instruction dataset.

By following these steps, it is possible for you to to leverage Langchain and GPT-4 to generate a complete instruction dataset that can be utilized to fine-tune your Massive Language Mannequin to higher fit your particular wants.

Picture Supply: Creator

For this tutorial, we ready a dataset containing 17 pairs of directions associated to the medical area in Brazilian Portuguese. We first created a .csv file with columns for instruction, enter, and output. Then, we learn this file right into a pandas DataFrame and reworked the DataFrame into an inventory of JSON objects. This listing was then saved to a .json file in a format appropriate for being handed as prompts to GPT-4.

Right here is the Python code we used for this transformation:

Formatting an inventory of JSONs for use because the seed duties dataset

Instance seed instruction from our dataset:

Instance seed job from our customized dataset

Earlier than diving into coding, we should guarantee we’ve the required Python libraries put in and imported into our workspace. These libraries present numerous functionalities, starting from numerical operations to language modeling and from scoring programs to knowledge visualization.

2.1 Putting in Libraries

Under is the listing of libraries we shall be utilizing all through this venture:

  1. numpy: For numerical operations.
  2. rouge_score: For evaluating the standard of textual content technology.
  3. openai: For interacting with the OpenAI API.
  4. transformers: For using transformer fashions like GPT-4.
  5. torch: For utilizing PyTorch deep studying framework.
  6. sentencepiece: For textual content tokenization.
  7. tokenizers: For environment friendly tokenization, encoding, and decoding.
  8. langchain: For creating our LLM Chain.

Use the next pip command to put in the required libraries:

2.2 Importing Libraries

As soon as the required libraries are put in, you may import them in your Python script. The import command will differ relying on the library. Under are the overall import instructions for the required libraries:

After putting in and importing the required libraries, we are going to now outline numerous capabilities that shall be used within the code. Under are the descriptions of those capabilities and their respective code:

3.1 Encode Immediate Operate

This perform takes the immediate directions as enter and encodes them right into a single string that may be understood by the GPT-4 mannequin.

3.2 Publish-process GPT-4 Response Operate

The post_process_gpt3_response perform is designed to take the uncooked output from the language mannequin and format it in a means that’s extra usable for downstream duties. It is used to extract and format the generated directions from the mannequin’s output. It performs a number of checks and filters to make sure the standard and relevance of the directions. Under are the steps this perform performs:

  1. Checking the response: The perform first checks if the response is None. Whether it is, it instantly returns an empty listing.
  2. Splitting the response: The response is then divided by “###” into separate sections. Every part represents a separate instruction generated by the mannequin.
  3. Extracting directions, enter, and output: The perform then loops over these sections and for every one, it separates the instruction, enter, and output by splitting the part textual content utilizing common expressions. It ensures that these three components are current and appropriately formatted. If the part doesn’t comprise precisely 7 components after splitting (which corresponds to a few pairs of directions, enter, and output, plus the remaining textual content), it’s ignored.
  4. Filtering the directions: Subsequent, the perform applies a number of filters to the directions:
  • Size examine: Directions which might be too quick (lower than or equal to three phrases) or too lengthy (greater than 150 phrases) are filtered out. This ensures the directions are significant and never overly advanced.
  • Key phrase examine: Directions that comprise sure key phrases (e.g., “picture”, “graph”, “file”, “map”, “go to”, “video”, and many others.) are additionally filtered out. These key phrases are chosen primarily based on the character of the duty and the restrictions of the language mannequin (e.g., a language mannequin can’t course of photos or movies).
  • Particular phrase examine: If the instruction begins with “Write a program”, it’s discarded. It’s because such directions can result in confusion whether or not the mannequin must output a program code or instantly present the outcome.
  • Punctuation examine: Directions beginning with punctuation are filtered out as they’re more likely to be incomplete or malformed.

5. Appending directions: If an instruction passes all these filters, it’s appended to an inventory of directions within the type of a dictionary with keys “instruction”, “enter”, and “output”. This listing is returned by the perform.

By working the post-processing perform, the uncooked output from the language mannequin is reworked into an inventory of directions which might be simpler to work with for the subsequent steps of this system. It additionally ensures that the directions are of a sure high quality and match the necessities and constraints of the given job.

3.3 Helper Capabilities for File Operations

These are helper capabilities for performing learn and write operations on JSON recordsdata.

3.4 String Processing Capabilities

These are helper capabilities for processing strings.

3.5 Generate Instruction Following Information Operate

The generate_instruction_following_data perform is a bit advanced, because it serves as the primary driver for the whole instruction technology course of. This is a breakdown of what it does:

  1. Loading the seed duties: The perform begins by loading a set of seed duties from a JSON file. These seed duties are human-written directions used to information the language mannequin’s instruction technology.
  2. Making ready the info: The loaded knowledge is then reworked into an inventory of dictionaries the place every dictionary incorporates an instruction, enter, and output from the seed duties.
  3. Making ready the directories and recordsdata: The perform then checks if a listing for the output exists and if not, creates it. It additionally checks if there are any pre-existing machine-generated directions from earlier runs of the perform. If such directions exist, they’re loaded and used within the present run
  4. Making a scorer: The Rouge scorer is created, which shall be used later to compute the similarity between the generated directions and the present ones.
  5. Creating the language mannequin: The perform then initializes an occasion of the ChatOpenAI class, which is used to generate directions. The OpenAI’s GPT-4 mannequin is used for the duty.
  6. Instruction Technology: That is the place the primary motion takes place. The perform enters some time loop that continues till a specified variety of directions have been generated. In every iteration:
  • The perform selects numerous random directions from the seed duties, encodes them right into a immediate, and feeds this immediate into the language mannequin to generate new directions.
  • The generated directions are post-processed utilizing the post_process_gpt3_response perform mentioned earlier.

7. Filtering and processing generated directions: The perform then iterates over every generated instruction:

  • It first computes the Rouge-L rating between the brand new instruction and all present directions. If the best rating is above 0.7 (i.e., the brand new instruction is similar to an present one), the instruction is discarded.
  • If the instruction is sufficiently distinctive, it’s appended to the listing of machine-generated directions. Different metadata, comparable to the typical similarity rating and probably the most related directions, are additionally saved for future reference.

8. Saving the generated directions: After producing and processing all of the directions in a batch, the perform dumps the machine directions right into a JSON file. This enables the directions to be saved and utilized in future runs of the perform.

9. Repeating the method: The perform repeats the instruction technology, post-processing, and saving course of till it generates the specified variety of directions.

The generate_instruction_following_data perform, subsequently, encapsulates the whole means of producing new directions from seed duties utilizing a language mannequin, processing and filtering these directions, and saving them for future use.

Our immediate template seemed like this said the next necessities:

  1. Don’t repeat the identical verb for every instruction to maximise range.
  2. The language used within the instruction also needs to be various. For instance, you need to combine questions with crucial directions.
  3. The kind of directions ought to be various. The listing ought to embrace several types of duties comparable to open technology, classification, enhancing, and many others.
  4. A GPT-based AI ought to be able to finishing the instruction. For instance, don’t ask the AI to create any visible or audio output. Equally, don’t ask the AI to wake you up at 5 pm or set a reminder, as it could’t carry out any motion.
  5. All directions and inputs ought to be in Portuguese.
  6. The directions ought to be concise, with 1–2 sentences. An crucial sentence or a query are allowed.
  7. You must generate an acceptable enter for the instruction. The enter area ought to comprise a selected instance supplied for the instruction. It ought to contain reasonable knowledge and shouldn’t comprise easy placeholders. The enter ought to present substantial content material to make the instruction difficult, however ideally shouldn’t exceed 100 phrases.
  8. Not all directions require enter. For instance, when an instruction asks for some normal info, “what’s the highest peak on this planet”, there isn’t a want to offer a selected context. On this case, we merely put “<noinput>” within the enter area.
  9. The output ought to be an acceptable response to the instruction and enter.
Our Immediate Template

Now that we’ve the required capabilities outlined, let’s begin producing the dataset. We’ll use the generate_instruction_following_data perform to create the dataset utilizing the GPT-4 mannequin. That you must provide an OpenAI API key to make use of GPT-4.

Right here is the configuration we’ll use for our dataset technology:

  • The output listing (output_dir) is ready to „./new_tasks“. That is the place our generated duties shall be saved.
  • The seed duties path (seed_tasks_path) is ready to „./seed_tasks.json“. This file incorporates the preliminary set of duties that we’ll use to information the technology course of.
  • We’ll generate 15 directions (num_instructions_to_generate).
  • The mannequin used for technology (model_name) is GPT-4.
  • For every immediate, we’ll use 3 directions from the seed duties (num_prompt_instructions).
  • We’ll generate directions in batches of 5 (request_batch_size).
  • The temperature (temperature) for the technology course of is ready to 0. This implies the technology course of shall be deterministic, and can all the time select the most definitely subsequent token when producing textual content.
  • The top_p parameter is ready to 1.0, which means we can’t use nucleus sampling within the technology course of.
  • The variety of CPUs (num_cpus) used for parallel processing is ready to 4.

Right here is the Python code for this step:

While you run the above code, it begins the dataset technology course of utilizing the configurations you have got set. After the perform has completed working, you can find the generated duties within the “new_tasks” listing. You may then use this generated dataset for numerous functions, comparable to coaching and evaluating language fashions on instruction following duties.

Please guarantee you have got sufficient quota and mandatory permissions from OpenAI to entry GPT-4 for producing the dataset.

The 2 JSON outputs beneath symbolize a pattern of the ultimate processed output of the mannequin. They reveal the flexibility of the mannequin in creating various duties, in addition to the mannequin’s capacity to generate related input-output pairs.

Instance outputs

Let’s analyze every instance intimately:

1. Instance 1:

Instruction: “Explique a diferença entre um resfriado comum e a gripe.”

The mannequin efficiently generates a proof detailing the variations between a typical chilly and the flu.

Most Comparable Directions: The system identifies related directions primarily based on its coaching knowledge and scores them. It’s clear that the mannequin has discovered associated duties that contain symptom evaluation, explaining medical check outcomes, or creating affected person data — that are related processes to explaining variations between ailments.

Common Similarity Rating: This rating is sort of low (0.06), which exhibits that the given instruction is pretty distinctive in comparison with different duties the mannequin has realized.

2. Instance 2:

Instruction: “Identifique os medicamentos mencionados no texto.”

The mannequin appropriately identifies the drugs talked about within the enter textual content.

Most Comparable Directions: The mannequin appropriately associates this instruction with duties like discovering diagnoses within the textual content, figuring out warning indicators, and classifying medical check outcomes, that are associated to the duty of figuring out drugs.

Common Similarity Rating: The typical similarity rating right here is increased (0.11), implying that this job is extra widespread or much like different duties within the mannequin’s coaching knowledge.

The variety of job directions and corresponding input-output pairs demonstrates the potential for this pipeline.

We hope this complete information has supplied you with a stable basis for creating instruction datasets utilizing the GPT mannequin and Langchain. Though we’ve targeted on medical duties, the method may be utilized to varied different domains.

You could find the entire code for this information on my GitHub repository. For a extra interactive expertise, you may run the code on this Google Colab notebook.

Having generated our medical instruction dataset, our journey doesn’t finish right here. We’ve got thrilling plans on the horizon. The following section of this venture will contain leveraging this generated dataset to fine-tune an open-source language mannequin.

By leveraging the distinctiveness and variety of our generated dataset, we purpose to create a mannequin that’s finely attuned to the intricacies of medical directions within the Portuguese language. This mannequin can be designed to deal with the range of language expressions and the richness of medical terminology captured within the knowledge.

Our concentrate on utilizing an open-source mannequin underscores our dedication to the broader AI group. By sharing our fine-tuned mannequin, we hope to pave the best way for additional innovation and exploration within the realm of multilingual AI and healthcare.

Keep tuned as we embark on this thrilling new section of our venture. We’re trying ahead to seeing what we are able to obtain with our newly minted Portuguese medical instruction dataset and the ability of open-source AI.



Source link

Meine „DataWeek“-Zusammenfassung. Es gibt so viel zu besprechen … so wenig Zeit! | von Bruno Aziza | Analytisch Ihr | Juli 2023

0


Es gibt so viel zu besprechen … so wenig Zeit!

Die vergangene Woche warfare einfach unglaublich. Viele Veranstaltungen, Ankündigungen von generativer KI bis hin zu Datenverwaltung, Überwachung, Abfrageföderation und wichtige Neuigkeiten zur Unterstützung offener Tabellenformate im gesamten Datenbereich … Ich habe es geliebt!

Während sich einige meiner amerikanischen Freunde auf die Feierlichkeiten zum 4. Juli vorbereiten, dachte ich, ich würde einen kurzen Rückblick auf meine „Datenwoche“ geben … hauptsächlich in Movies und Fotos.

PS: John Furrier erhält Anerkennung für die Benennung dieser Woche „DataWeek“! — 😉

Wir starteten die Woche mit Perspektiven zur Wertoptimierung und den Geschichten von Dateninnovatoren, von denen viele zu uns nach Seattle kamen, um eine großartige Woche zu verbringen, in der es um Finest Practices für Kunden und deren Erfolg ging.

Danke für John Furrier und dem Relaxation seiner Crew für das tolle Gespräch!



Source link

Vorhersage der Bereiche für die Implantation des Behandlungsstadiums | von Glaucia Alves | Juli 2023

0


EAls ich mein erstes Projekt mit Maschinenkenntnissen durchführte, engagierte ich mich am Bundesinstitut für Goiás, während meines Berufslebens in Technologie, Verwaltung und Nachhaltigkeit im System, in der Modellierung und in der Simulation durch die Professoren Dr. Henrique Cremon und Dr. Regina Célia Bueno da Fonseca. Eine Disziplin, die es ermöglicht, Kapazitäten in ausgewählten Bereichen für die Set up von Lerneinheiten (ETE) mit Knowledge Science und maschinellen Lernmethoden zu entwickeln.

Maschinelles Lernen ist kein Problem
Maschinelles Lernen ist kein Downside. Schriftart: Autoren

Das Projekt besteht aus verschiedenen Klassifizierungs- und Analysierungsalgorithmen, die ich am besten für die Bestimmung der Standorte anhand der Eingangsparameter verwenden muss. Foram Trabalhados Scripts in der Sprache R und Python.

ODER für eine Sprache, die nicht für das Klassifizierungsprojekt verwendet wurde, sondern für eine hohe Effizienz bei der Erstellung von Grafiken sorgte, wurde jedoch ein einziges Ferramenta verwendet, das in der Systemumgebungsmodellierung angewendet wurde.

EINFÜHRUNG

Es ist unvermeidlich, dass ein Plan zur Umsetzung von Estações zur Behandlung von Menschen in Regionen mit hoher Bevölkerungs- und Mediendichte in Betracht gezogen wird, um die Erhaltung meiner Umgebung zu gewährleisten.

Die Umsetzung dieser Stadien ist notwendig, um sicherzustellen, dass die Bevölkerung nach der Devidamente-Verteilung und der Entwicklung unserer Wasserversorgungsunternehmen über Wasser verfügt. Aus diesem Grund muss der Körper des Empfängers in der Lage sein, natürliche Lebensbedingungen zu schaffen, die sich auf die zu behandelnde Anlage, die Erhaltung der Wasserressourcen und die Aufrechterhaltung der Umgebungsstabilität auswirken.

Daher sind bei der Untersuchung verschiedene spezifische und individuelle Angaben aus jeder Area zu verwenden, um festzulegen, welche Bereiche in der Folge angemessen sind, um eine einheitliche Behandlung zu erstellen. Aufgrund meiner Analyse- und Modellierungstechniken ist es möglich, dass diese Prädikatsvoraussetzungen unter Berücksichtigung von Faktoren wie vorhandener Infrastruktur, Topographie, Verfügbarkeit von Rekursen, Auswirkungen auf die Umgebung und Notwendigkeiten vor Ort erfolgen.

Die Idee dieses Artikels besteht aus einem Referenzpunkt und der Registrierung neuer Projekte im grundlegenden Sanierungsbereich, zum Schutz meiner Umgebung und der Rückführung von Wasser. Ich habe kein Studium abgeschlossen, weil mir ein Modellbausatz in die Hände gefallen ist, und der Staat São Paulo ist als Referenz zu seiner Hauptaufgabe bereit, keine Rückstände zu behandeln.

Um die Entscheidungsfindung zu erleichtern, müssen Sie konkrete Daten nutzen und Ziele analysieren, abhängig von Ihrer Instinct oder Ihren Annahmen. Es wird eine solide Grundlage für die Entscheidungsfindung und die Unterbringung in der Sanierungs- und Umgebungsschutzzone vorgeschlagen. Im Folgenden werden die von uns verwendeten Algorithmen zur Klassifizierung des Bereichs für die Implantation in der Behandlungsphase beschrieben.

Pre-processamento de dados – Linguagem R

Um die Erkundung zu analysieren, verwenden wir verschiedene Foren. Da die Foren in einem Textarchiv zusammengestellt wurden, das kein bestimmtes Format hat, ist es möglich, die auf der Tabelle strukturierten Informationen weiterzuleiten. Ö Datensatz Die endgültige Zusammensetzung bestand aus 1822 Beamten (bei Anwesenheit von wertvollen Beamten – NA), die in 70 % für die Ausbildung und 30 % für die Prüfung aufgeteilt wurden, wobei das CARET-Paket in der Sprache R verwendet wurde. Das Ergebnis waren 1276 Schulbeamte und 546 Prüflinge (amostras de validação independentes das amostras de treinamento).

O mesmo Datenrahmen Ich habe jedoch verschiedene Binärklassifizierungsalgorithmen verwendet Zufälliger Wald (RF), Discussion board verwendet Boosting-Algorithmen (AdaBoost, GBM, XGBoost, LightGBM), die auf der Entscheidungsfindung basieren. Außerdem sind die neuen künstlichen Intelligenzen kein klassifiziertes Modell.

Es wird keine RNA-Skript-RNA (Neurais Artificias) für die Normalisierungswirkung verwendet, die in regelmäßigen Abständen zwischen Medikamenten oder Zeitintervallen variiert und von „Gewichtsverfall“ genutzt wird. Nach der Regulierung wurden die Algorithmen für die Anwendung angewendet und ein allgemeiner Vergleich durchgeführt, der durch die Verwendung oder Kombination von Exams realisiert wurde.

Um zwei Binärklassifizierungsmodelle zu vergleichen, wurden die ROC-Kurve (Receiver Working Attribute) und die AUC-Metrik (Space Underneath the Curve) verwendet. Die ROC-Kurve ist eine einfache Grafik, sehr strong und ihre Interpretation ist einfach: Ein Modell, das bereits vorhergesehen wurde, ist zu 100 % fehlerhaft AUC Von 0 bis 100 % entspricht ein Modell, das zu 100 % korrekt ist AUC von 1. Assim, quanto mais próximo de „1″ Für den Wert von AUC, besser und besser für das Modell.

Importância da Variável

Der Vorteil besteht darin, dass Sie ein auf der Grundlage von Daten erstelltes Produkt verwenden, bei dem keine wichtigen Berechnungen durchgeführt werden. Ich hoffe, dass jeder von uns eine wichtige Rolle spielt und einen wichtigen Beitrag zu einer Vielzahl von Antworten leistet. Wir müssen daher darauf achten, die Modelle aus vielen anderen Ländern zu identifizieren und zu konstruieren. Für die Klassifizierung dieser Varianten wird bei Verwendung des Befehls „VarImp“ überprüft und klassifiziert, wie wichtig es ist, dass die verwendeten Modelle kein Modell sind.

Überlegungen zum Abschluss

Ambos os algorithms apresentaram excelentes resultsados ​​em termos de empenho. Es ist jedoch wichtig, dass die AUC-Kurve zur Beobachtung der Tapferkeit verwendet wird.1″ Für Random Forest bedeutet dies, dass es sich um ein robustes, aber metrisches Gerät handelt. Der große Vorteil von Random Forest besteht darin, dass er für Klassifizierungs- und Regressionsprobleme verwendet werden kann und für die meisten von der Maschine geschulten Systeme geeignet ist.

Im Anschluss an die Arbeit in R können wir zu dem Schluss kommen, dass die Regierungen mit Medien an einem anderen Ort in der Stadt dazu neigen, eine einzige Behandlungssitzung zu erhalten, zusammen mit der Anwesenheit eines Körperrezeptors (Schulkurs). Darüber hinaus tragen die Verfügbarkeit von elektrischer Energie, die Zugänglichkeit und die Deklination der Area auch erheblich dazu bei, bevorzugte Standorte für die Set up von ETEs auszuwählen.



Source link

Kollektive Intelligenz nutzen: Ein tiefer Einblick in das Hive-KI-Ökosystem | von Vontarius Falls | Juli 2023

0


Das Hive AI-Emblem

In einer Zeit, in der Daten das neue Öl sind, ist künstliche Intelligenz (KI) der Motor, der branchenübergreifend Innovationen vorantreibt. Die Hive-KI steht an der Spitze dieser Revolution und nutzt KI, um kollektive Intelligenz zu nutzen und Lösungen für komplexe Herausforderungen zu schaffen. Dieser Artikel wirft einen detaillierten Blick auf The Hive AI, seine Angebote und die Auswirkungen, die es auf das breitere Technologie-Ökosystem haben könnte.

The Hive AI ist ein Enterprise-Studio und Fonds, der sich auf KI-gestützte Anwendungen und Anwendungsfälle konzentriert. Es arbeitet mit Unternehmern und Unternehmen zusammen, um KI-gesteuerte Startups gemeinsam zu gründen, zu finanzieren und zu starten. Der Ansatz von Hive AI ist einzigartig, da er nicht nur Kapital bereitstellt, sondern auch umfassendes Fachwissen und Ressourcen in den Bereichen KI, maschinelles Lernen und Datenwissenschaft bereitstellt, um Startups bei der Skalierung und dem Erfolg zu helfen.

The Hive AI arbeitet eng mit Unternehmern zusammen, um gemeinsam Startups zu gründen, die KI nutzen, um bestimmte Marktchancen oder Herausforderungen anzugehen. Durch sein Co-Creation-Modell stellt The Hive AI die notwendigen Ressourcen, Fachkenntnisse und Kapital bereit, um eine Idee von der Konzeption bis zur Marktreife zu bringen.

Als Enterprise-Studio stellt The Hive AI Finanzierungen für Begin-ups im KI-Bereich bereit. Es investiert in junge Unternehmen und unterstützt sie auf ihrem Wachstumskurs.

The Hive AI verfügt über ein Staff von Experten in den Bereichen KI, Datenwissenschaft, Geschäftsstrategie und Unternehmertum. Diese Experten arbeiten eng mit den Startups zusammen und bieten Mentoring und Anleitung, um ihnen bei der Bewältigung der Herausforderungen beim Aufbau eines KI-gesteuerten Unternehmens zu helfen.

Startups, die mit The Hive AI zusammenarbeiten, erhalten Zugang zu einem riesigen Netzwerk von Partnern, Kunden und Investoren. Dieses Netzwerk kann für junge Unternehmen, die schnell und effizient skalieren möchten, von unschätzbarem Wert sein.

Durch die Bereitstellung von Kapital, Fachwissen und Ressourcen für KI-gesteuerte Startups beschleunigt The Hive AI das Innovationstempo im KI-Bereich. Dies kann zur Entwicklung bahnbrechender Technologien führen, die das Potenzial haben, Branchen zu revolutionieren.

Das Co-Creation-Modell von Hive AI senkt die Eintrittsbarrieren für angehende Unternehmer, die revolutionary Ideen haben, aber nicht über die Ressourcen oder das Fachwissen verfügen, um sie zum Leben zu erwecken. Dies fördert eine Kultur des Unternehmertums und ermutigt mehr Menschen, ihre Ambitionen zu verfolgen.

KI hat das Potenzial, einige der komplexesten Herausforderungen zu bewältigen, vor denen die Gesellschaft heute steht, vom Klimawandel bis zum Gesundheitswesen. Durch die Konzentration auf KI-gesteuerte Lösungen positioniert sich The Hive AI an der Spitze der Bemühungen, Technologie zum Wohle der Allgemeinheit einzusetzen.

Während The Hive AI im KI-Bereich erhebliche Fortschritte macht, gibt es andere Initiativen und Enterprise-Studios, die sich auf KI und Technologieinnovation konzentrieren:

  1. Deep Science Ventures: Ein Enterprise-Studio, das sich auf Deep-Tech- und wissenschaftsbasierte Startups konzentriert.
  2. Betaworks: Eine Startup-Plattform, die Unternehmen im gesamten sozialen, datengesteuerten Medieninternet aufbaut und in diese investiert.
  3. Entrepreneur First: Ein Unternehmensgründer, der in das „Vorteam, die Voridee“ von Einzelpersonen investiert, um ihnen beim Aufbau von Technologieunternehmen von Grund auf zu helfen.

Es ist bekannt, dass die Hive AI mit verschiedenen Unternehmen und Organisationen im Technologiesektor zusammenarbeitet. Zu den bemerkenswerten Zugehörigkeiten gehören:

The Hive AI hat mit Oracle zusammengearbeitet, einem der weltweit führenden Anbieter von Cloud Computing und Datenbanksoftware. Durch diese Zusammenarbeit konnte The Hive AI die Cloud-Infrastruktur und Datenbanklösungen von Oracle nutzen, um die Startups in seinem Portfolio zu unterstützen.

Accenture, ein globales professionelles Dienstleistungsunternehmen, das sich auf IT-Dienstleistungen und -Beratung spezialisiert hat, arbeitet bekanntermaßen mit The Hive AI zusammen. Diese Zusammenarbeit umfasst wahrscheinlich die Bereitstellung von Beratungs- und professionellen Dienstleistungen durch Accenture für The Hive AI und seine Portfoliounternehmen.

Cisco, ein weltweit führender Anbieter von IT und Netzwerken, ist ein weiterer bemerkenswerter Accomplice von The Hive AI. Die Experience von Cisco im Bereich Netzwerklösungen kann für KI-gesteuerte Startups, die robuste und skalierbare Netzwerkinfrastrukturen benötigen, von unschätzbarem Wert sein.

DataRobot bietet eine KI-Plattform für Unternehmen, die die Datenwissenschaft beschleunigt und demokratisiert, indem sie den Finish-to-Finish-Weg von den Daten zur Wertschöpfung automatisiert. Wie The Hive AI konzentriert sich auch DataRobot darauf, KI für Unternehmen zugänglich und effektiv zu machen.

OpenAI ist ein KI-Forschungslabor, das aus dem gewinnorientierten Unternehmen OpenAI LP und seiner Muttergesellschaft OpenAI Inc. besteht. Das Unternehmen konzentriert sich auf die sichere und vorteilhafte Entwicklung künstlicher Intelligenz. Es ist bekannt für seine Spitzenforschung in den Bereichen KI und Deep Studying.

Component AI ist ein Unternehmen für künstliche Intelligenz, das KI-Forschung in skalierbare Lösungen umwandelt, die Unternehmen sicherer, stärker und agiler machen. Es bietet KI-Lösungen für verschiedene Branchen, darunter Finanzen, Logistik, Fertigung und Einzelhandel.

Lemonade ist ein KI-gesteuertes Versicherungsunternehmen, das maschinelle Lernalgorithmen nutzt, um Versicherungspolicen bereitzustellen und Schadensfälle abzuwickeln. Es ist ein Beispiel dafür, wie KI traditionelle Branchen revolutionieren kann.

Dies kann eine transformative Wirkung auf eine Vielzahl von Branchen haben. Hier sind einige Beispiele:

KI kann das Gesundheitswesen revolutionieren, indem sie Diagnostik, Patientenversorgung und Forschung verbessert. Beispielsweise können KI-Algorithmen medizinische Bilder mit hoher Präzision analysieren und so bei der Früherkennung von Krankheiten wie Krebs helfen. Darüber hinaus können KI-gesteuerte Chatbots grundlegende Gesundheitsberatung anbieten und so die Arbeitsbelastung des Gesundheitspersonals verringern.

Im Finanzsektor kann KI zur Betrugserkennung, Risikobewertung und zum Kundenservice eingesetzt werden. KI-Algorithmen können Transaktionsdaten in Echtzeit analysieren, um ungewöhnliche Muster zu erkennen und so Betrug zu verhindern. Darüber hinaus können KI-gesteuerte Robo-Berater Finanzberatung und Anlageverwaltungsdienste mit minimalem menschlichen Eingriff anbieten.

KI in der Fertigung kann zur Schaffung intelligenter Fabriken führen. Mit KI können Hersteller die Produktionseffizienz und Produktqualität verbessern. KI-Algorithmen können beispielsweise vorhersagen, wann eine Maschine wahrscheinlich ausfallen wird, was eine rechtzeitige Wartung ermöglicht und Ausfallzeiten reduziert.

Im Einzelhandel kann KI für die Bestandsverwaltung, Kundenempfehlungen und Verkaufsprognosen eingesetzt werden. Beispielsweise können KI-Algorithmen Kundendaten analysieren, um personalisierte Produktempfehlungen bereitzustellen, die das Einkaufserlebnis verbessern und den Umsatz steigern.

KI kann die Routenplanung für Verkehrsnetze optimieren und so Kraftstoff und Zeit sparen. In der Logistik kann KI die Nachfrage vorhersagen, den Lagerbestand optimieren und so die Kosten senken. Darüber hinaus steht KI im Mittelpunkt der Entwicklung autonomer Fahrzeuge.

Im Energiesektor kann KI die Nutzung von Stromnetzen optimieren und vorhersagen, wann Energie benötigt wird. Bei erneuerbaren Energiequellen wie Wind und Sonne kann KI dabei helfen, die Leistung auf der Grundlage von Wetterdaten vorherzusagen.

In der Unterhaltungsbranche wird KI zur Inhaltsempfehlung eingesetzt. Dienste wie Netflix und Spotify nutzen KI, um Benutzerpräferenzen zu analysieren und Filme, Serien oder Musik zu empfehlen.

KI kann die Landwirtschaft durch Präzisionslandwirtschaft verändern. KI-gesteuerte Drohnen können den Gesundheitszustand von Pflanzen überwachen, KI-Algorithmen können Erträge vorhersagen und intelligente Bewässerungssysteme können den Wasserverbrauch optimieren.

Die obigen Beispiele veranschaulichen die Vielseitigkeit und das Potenzial von KI in verschiedenen Branchen. Unternehmen wie The Hive AI tragen maßgeblich zur Förderung von Innovationen im KI-Bereich bei. Durch die Bereitstellung von KI-Instruments, Finanzmitteln und Fachwissen ermöglichen sie Unternehmern und Unternehmen, die Leistungsfähigkeit der KI zu nutzen, um komplexe Probleme zu lösen und die Effizienz zu verbessern. Da sich die KI-Technologie weiterentwickelt, wird erwartet, dass ihr Einfluss in allen Branchen zunimmt und zu mehr Innovationen und Transformationen führt.

Haftungsausschluss: Dieser Artikel dient nur zu Informationszwecken und sollte nicht als Empfehlung oder Finanzberatung betrachtet werden. Führen Sie immer Ihre eigene Recherche durch, bevor Sie Investitionsentscheidungen treffen oder mit Begin-ups zusammenarbeiten.

Webseite: https://thehive.ai/



Source link

Microsoft-Forscher schlagen ein neuartiges Framework für die LLM-Kalibrierung unter Verwendung der pareto-optimalen Selbstüberwachung ohne Verwendung gekennzeichneter Trainingsdaten vor

0


Jüngste Entwicklungen haben zu einer bemerkenswerten Steigerung der Leistungsfähigkeit großer Sprachmodelle (LLMs) geführt, wobei generative vortrainierte Transformatormodelle (GPT) vielversprechend sind. Der Übergang von GPT-3 zu GPT-4 sowie das Aufkommen anderer LLMs wie PaLM und LLaMA zeigten eine erhebliche Verbesserung der Fähigkeiten zur Problemlösung und zum Verständnis natürlicher Sprache. Darüber hinaus werden generative Modelle häufig in verschiedenen Branchen eingesetzt, um Daten für unterschiedliche Anwendungen zu generieren. Wenn LLMs in Anwendungen eingesetzt werden, die ein hohes Maß an Genauigkeit und Zuverlässigkeit erfordern, wie beispielsweise in der Biologie und im Gesundheitswesen, bleibt das Downside der Halluzination ein erhebliches Hindernis.

Leider stehen keine systematischen Techniken zur Verfügung, um Halluzinationen genau zu erkennen oder das Vertrauensniveau der Ergebnisse zu messen. Insbesondere nach der Verwendung von Verstärkungslernen mit menschlichem Enter ist der intrinsische Konfidenzwert der generativen LLMs manchmal nicht verfügbar oder nicht effektiv im Hinblick auf das beabsichtigte Ziel kalibriert. Heuristische Techniken sind kostspielig in der Berechnung und unterliegen einer Verzerrung durch das LLM selbst, wie beispielsweise die Stichprobe eines Ensembles von LLM-Antworten. Es gibt zwei grundlegende Methodenkategorien zur Bewertung des Vertrauensgrades in LLM-Antworten. Im ersten Schritt wird das LLM auf verschiedene Weise dazu angeregt, viele Antworten zu erstellen, die dann verwendet werden, um auf die Zuverlässigkeit der Antwort zu schließen.

Zwei Beispiele sind Selbstkonsistenz und Gedankenkettenaufforderung. Diese Techniken sind weniger quantitativ und anfällig für modellbedingte Verzerrungen der geschätzten Konfidenz. Es gibt keine standardisierte Methode, dies zu messen, aber die Aufforderungstechnik kann einen erheblichen Einfluss auf die Qualität der Ergebnisse haben. Die zweite Kategorie von Optionen greift auf externe Datenquellen zurück, etwa die Beauftragung menschlicher Gutachter zur Überprüfung der Antwort oder die Verwendung riesiger Mengen gekennzeichneter Daten zur Erstellung von Bewertungsmodellen. Eines der Haupthindernisse für das aktuelle überwachte Modelltraining ist die umfangreiche manuelle Anmerkungsarbeit, die diese Techniken erfordern. In dieser Hinsicht bietet die Selbstüberwachung eine praktikable Choice, da sie Datenmuster und unkonventionelles Fachwissen flexibel nutzen kann.

Forscher von Microsoft stellen in dieser Studie ein flexibles Framework bereit, das Pareto-Optimum-Lernen nutzt, um Daten sowohl aus den LLM-Antwort- als auch aus den Überwachungsquellen zu mischen. Sie wurden durch frühere Bemühungen in der programmatischen Überwachung und die Fülle der Pareto-Optimierungsforschung motiviert. Die folgenden Intuitionen leiten ihre Strategie. Um zu verhindern, dass ein LLM sich selbst beurteilt, sind externe Aufsichtsquellen erforderlich, die vom LLM unabhängig sind. Zweitens stellen Sie sich die LLM-Fehler als laute Störungen auf den Goldetiketten vor. Wenn ein Modell sowohl mit LLM-Rauschen als auch mit unabhängigem externen Rauschen ausgestattet ist, wird tatsächlich eine implizite Label-Glättung durchgeführt, was die Kalibrierungsleistung erhöht.

In dieser Hinsicht bietet die optimale Pareto-Selbstüberwachung einen nützlichen Rahmen für die Integration beider Qualitäten. Bemerkenswert ist, dass die vorgeschlagene Methode nur unbeschriftete Daten benötigt, was sie für Felder geeignet macht, in denen die Annotation kostspielig ist. Ihr einzigartiger Ansatz zur LLM-Kalibrierung durch optimale Pareto-Selbstüberwachung ist die wichtigste Innovation des Artikels. Sie schlagen vor, den Pareto Optimum Studying Assessmented Threat (POLAR)-Rating zu verwenden, um die Wahrscheinlichkeit von LLM-Fehlern zu berechnen. Sie präsentieren experimentelle Ergebnisse zu vier verschiedenen NLP-Aufgaben und zeigen, dass der vorgeschlagene POLAR-Rating im Wesentlichen mit der auf Goldlabels bewerteten LLM-Fehlerrate zusammenhängt. Sie zeigen eine verbesserte LLM-Leistung in Hochrisikosituationen, wie durch den POLAR-Rating unter Verwendung dynamischer Aufforderungsstrategien ermittelt. Sie demonstrieren, wie ihre Methode LLM-Fehler beseitigen und eine GPT-4-Basisleistung verbessern kann, um die Leistung des fortschrittlichsten überwachten Modells zu übertreffen, ohne von Menschen gekennzeichnete Trainingsdaten zu verwenden.


Besuche die Papier. Vergessen Sie nicht, mitzumachen unser 25k+ ML SubReddit, Discord-Kanal, TwitterUnd E-Mail-Newsletter, wo wir die neuesten Nachrichten aus der KI-Forschung, coole KI-Projekte und mehr teilen. Wenn Sie Fragen zum obigen Artikel haben oder uns etwas entgangen ist, schreiben Sie uns gerne eine E-Mail an Asif@marktechpost.com


Empfohlene Instruments:

🚀 Schauen Sie sich 100 KI-Tools im AI Tools Club an


Aneesh Tickoo ist Beratungspraktikantin bei MarktechPost. Derzeit absolviert er seinen Bachelor-Abschluss in Datenwissenschaft und künstlicher Intelligenz am Indian Institute of Expertise (IIT) in Bhilai. Die meiste Zeit verbringt er mit der Arbeit an Projekten, die darauf abzielen, die Leistungsfähigkeit des maschinellen Lernens zu nutzen. Sein Forschungsinteresse gilt der Bildverarbeitung und er ist leidenschaftlich daran interessiert, Lösungen dafür zu entwickeln. Er liebt es, mit Menschen in Kontakt zu treten und an interessanten Projekten mitzuarbeiten.






Source link

So erstellen Sie ein KI-Tool in 2 Minuten ohne technische Kenntnisse | von Adam Leh | Juli 2023

0


KI generierte Deep-Studying-KI

Dieses Video zeigt, wie Sie ein benutzerdefiniertes KI-Device ohne Programmierkenntnisse oder API-Schlüssel erstellen. Der Vorgang dauert weniger als zwei Minuten und umfasst die Anmeldung auf freeaikit.com, die Auswahl eines Symbols, das Hinzufügen eines Metatitels, einer Unterüberschrift und einer Beschreibung, die Auswahl eines Modells und einer Vorlage sowie die Erstellung einer Eingabeaufforderung. Das Device kann privat gehalten oder mit einem kostenlosen Web site-Hyperlink öffentlich gemacht werden. Der Ersteller erwähnt, dass bald weitere Vorlagen, Modelle und Funktionen verfügbar sein werden.

Höhepunkte:

Das Video zeigt, wie man in weniger als zwei Minuten ein benutzerdefiniertes KI-Device ohne Programmierkenntnisse oder API-Schlüssel erstellt.
Benutzer können sich auf freeaikit.com anmelden und auf das Dashboard und den Playground zugreifen.
Ein Image kann mit Canva oder einem anderen Designtool ausgewählt werden.
Benutzer können einen Metatitel, eine Unterüberschrift und eine Beschreibung für ihr Device hinzufügen.
Tags wie Advertising and marketing oder web optimization können ausgewählt werden.
Es werden das GPT 3.5-Modell und eine Vorlage mit einer Eingabe ausgewählt.
Es wird eine Eingabeaufforderung erstellt, um YouTube-Titel basierend auf der Eingabe des Benutzers zu generieren.
Das Device kann privat gehalten oder mit einem kostenlosen Web site-Hyperlink öffentlich gemacht werden.
Der Ersteller erwähnt, dass in Zukunft weitere Vorlagen, Modelle und Funktionen hinzugefügt werden.

Klicken Sie hier, um das vollständige Video anzusehen.



Source link

Zur Werkzeugleiste springen