Ein Leitfaden für Neugierige zur künstlichen Intelligenz. | von Manas Parashar | Juni 2023

0
27


Künstliche Intelligenz ist ein Zweig der Informatik, der darauf abzielt, intelligente Maschinen zu bauen, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern.

Künstliche Intelligenz ist überall. Und die jüngste Explosion neuer KI-Technologien und -Instruments hat viele neue Begriffe eingeführt, die Sie kennen müssen, um sie zu verstehen.

Die Technologie unterstützt virtuelle Assistenten wie Apples Siri, hilft Ärzten, Krebs in MRTs zu erkennen, und ermöglicht es Ihrem Telefon, Ihr Gesicht zu erkennen.

Instruments, die Inhalte generieren, haben das Feld neu belebt. Chatbots wie ChatGPT und Bard schreiben Softwarecode und Kapitelbücher. Sprachtools können die Sprache von Prominenten manipulieren. Bildgeneratoren können mit nur wenig Textual content hyperrealistische Fotos erstellen.

Diese bahnbrechende Technologie hat das Potenzial, ganze Branchen zu revolutionieren, aber selbst Experten haben Schwierigkeiten, die Funktionsweise einiger Instruments zu erklären. Und Technologieführer sind sich nicht einig darüber, ob diese Fortschritte eine utopische Zukunft oder eine gefährliche neue Realität mit sich bringen werden, in der Wahrheit nicht von Fiktion zu unterscheiden ist.

Künstliche Intelligenz

Künstliche Intelligenz ist ein Überbegriff für eine Vielzahl von Technologien. Es gibt keine einheitliche Definition und selbst Forscher sind sich nicht einig. Im Allgemeinen ist KI ein Bereich der Informatik, der sich auf die Entwicklung und Schulung von Maschinen für die Ausführung intelligenter Aufgaben konzentriert, „etwas, das wir, wenn eine Particular person es tun würde, Intelligenz nennen würden“, sagte Larry Birnbaum, Professor für Informatik an der Northwestern College Universität.

Seit Jahrzehnten wird KI vor allem für Analysen eingesetzt und ermöglicht es Menschen, durch die Auswertung riesiger Datenmengen Muster zu erkennen und Vorhersagen zu treffen.

Aber Fortschritte auf diesem Gebiet haben zu einem Increase der generativen KI geführt, einer Kind künstlicher Intelligenz, die Dinge herstellen kann. Die Technologie kann Wörter, Töne, Bilder und Movies erzeugen, manchmal auf einem Niveau, das die menschliche Kreativität nachahmt. Es unterstützt Chatbots wie ChatGPT und Bildgeneratoren wie DALL-E.

Obwohl diese Technologie nicht wie Menschen „denken“ kann, kann sie manchmal Arbeiten von ähnlicher Qualität schaffen. KI-gestützte Bildgeneratoren haben Fotos gemacht, die Kunstjuroren vorgaukelten, sie seien von Menschen gemacht, und Spracherzeugungssoftware hat die Stimmen von Menschen bewahrt, die an degenerativen Krankheiten wie ALS leiden.

Durch generative KI unterstützte Chatbots haben Benutzer verblüfft, indem sie unheimlich lebensechte Gespräche geführt haben, ein früher Traum auf diesem Gebiet, wie er sich Alan Turing vorgestellt hatte. 1950 entwickelte er den „Turing-Take a look at“, der den Erfolg einer KI-Maschine danach beurteilte, wie intestine sie den Benutzern vorgaukeln konnte, sie sei ein Mensch.

Turing schenkte der Idee, dass ein Pc wirklich „denken“ könne, nie großen Glauben, er nannte diese Frage „zu bedeutungslos, um eine Diskussion zu verdienen“.

Wie KI lernt

Software program für künstliche Intelligenz ist nichts ohne Daten.

Die Instruments entwickeln Intelligenz durch maschinelles Lernen, einen Prozess, der es Computern ermöglicht, selbstständig zu „lernen“, ohne dass ihnen ein Programmierer jeden Schritt mitteilen muss. Füttere einen Pc mit riesigen Datenmengen und er kann schließlich Muster erkennen und Ergebnisse vorhersagen.

Der Schlüssel zu diesem Prozess sind neuronale Netze, mathematische Systeme, die wie ein computerisiertes Gehirn funktionieren und der Technologie helfen, Verbindungen in Daten zu finden. Sie sind dem menschlichen Gehirn nachempfunden und verfügen über Schichten künstlicher „Neuronen“, die Informationen untereinander übermitteln. Selbst Experten verstehen nicht unbedingt alle Feinheiten der Funktionsweise neuronaler Netze.

Große Sprachmodelle oder LLMs, sind eine Artwork neuronales Netzwerk, das lernt, mit Benutzern zu schreiben und sich mit ihnen zu unterhalten; Sie unterstützen alle Chatbots, die in den letzten Monaten auf den Plan getreten sind. Sie lernen zu „sprechen“, indem sie riesige Textmengen, oft aus dem Web geschnipselte Web sites, aufsaugen und statistische Beziehungen zwischen Wörtern herausfinden. Wenn die Muster dieser Systeme übereinstimmen, kann dies zu kreativen Meisterleistungen führen. Ein Chatbot kann Songtexte erstellen, die dem Stil von Jay-Z sehr nahe kommen, da er die Muster seiner gesamten Diskografie absorbiert. Aber LLMs sind sich der Bedeutung von Wörtern nicht bewusst.

Parameter, bei denen es sich um numerische Punkte in den Trainingsdaten eines großen Sprachmodells handelt, bestimmen, wie kompetent es seine Aufgaben, beispielsweise die Vorhersage des nächsten Wortes in einem Satz, beherrscht.

Einige Forscher sagen, dass die Technologie in Zukunft näher kommen wird Künstliche allgemeine Intelligenz oder AGI, ein Punkt, an dem sie der Intelligenz des Menschen entspricht oder diese übertrifft. Die Idee ist der Kern der Mission einiger Labore für künstliche Intelligenz wie OpenAI, das in seinen Gründungsdokumenten die Erreichung von AGI als Ziel aufführt. Andere Experten bestreiten, dass KI auch nur annähernd eine solche Ausgereiftheit erreicht, während einige Kritiker behaupten, dass es sich dabei um einen Marketingbegriff handele.

Wie interagieren wir mit KI?

Die häufigste Artwork und Weise, wie Menschen künstliche Intelligenz erleben, ist durch Chatbots, die wie eine fortschrittliche Kind von Instantaneous Messenger funktionieren, Fragen beantworten und Aufgaben anhand von Eingabeaufforderungen formulieren.

Diese Bots werden auf Bestände an Internetdaten trainiert, darunter Reddit-Gespräche und digitale Bücher. Chatbots sind unglaublich geschickt darin, Muster zu erkennen und Sprache zu imitieren, aber sie interpretieren keine Bedeutungen, sagen Experten. „Es ist eine Tremendous-Excessive-Constancy-Model der automatischen Vervollständigung“, sagte Birnbaum über die LLMs, die die Chatbots antreiben.

Seit seinem Debüt im November ist ChatGPT hat Benutzer mit seiner Fähigkeit verblüfft, flüssige Sprache zu produzieren und komplette Romane, Computercode, TV-Folgen und Lieder zu generieren. GPT steht für „Generative Pre-Educated Transformer“. „Generativ“ bedeutet, dass KI zum Erschaffen von Dingen verwendet wird. „Vorab trainiert“ bedeutet, dass es bereits anhand einer großen Datenmenge trainiert wurde. Und „Transformer“ ist eine leistungsstarke Artwork von neuronalem Netzwerk, das Sprache verarbeiten kann.

Erstellt vom Begin-up aus San Francisco OpenAI und ChatGPT haben zu einem Ansturm von Unternehmen geführt, die ihre eigenen Chatbots veröffentlichen. Der Chatbot von Microsoft, Bing verwendet die gleiche zugrunde liegende Technologie wie ChatGPT. Und Google veröffentlichte einen Chatbot, Bard, der auf dem LaMDA-Modell des Unternehmens basiert.

Manche Leute glauben, dass Chatbots die Artwork und Weise verändern werden, wie Menschen Informationen im Web finden und konsumieren. Anstatt einen Begriff in eine Suchmaschine wie Google einzugeben und verschiedene Hyperlinks zu durchsuchen, kann es sein, dass Menschen einem Chatbot eine Frage stellen und eine sichere Antwort erhalten. (Obwohl diese Antworten manchmal falsch sind)

KI zähmen

Der Increase der generativen künstlichen Intelligenz bringt spannende Möglichkeiten mit sich, aber auch Bedenken, dass die Spitzentechnologie Schaden anrichten könnte.

Chatbots können manchmal Quellen erfinden oder selbstbewusst Fehlinformationen verbreiten. In einem Fall erfand ChatGPT einen Skandal um sexuelle Belästigung gegen einen Juraprofessor an einer Universität. Es kann auch zu Verschwörungstheorien und rassistischen Antworten kommen. Manchmal bringt es in seiner Arbeit Vorurteile zum Ausdruck. In einem Experiment identifizierten Roboter schwarze Männer, als sie gebeten wurden, einen „Kriminellen“ zu finden, und markierten alle „Hausfrauen“ als Frauen.

KI-Ethiker und -Forscher befürchten seit langem, dass Chatbots unsere Probleme und Vorurteile absorbieren, weil sie auf riesige Mengen menschlicher Sprache zurückgreifen und Daten von Twitter bis Wikipedia verwenden. Unternehmen haben versucht, semantische Leitplanken einzuführen, um die Aussagemöglichkeiten von Chatbots einzuschränken, aber das funktioniert nicht immer.

Manchmal produziert künstliche Intelligenz Informationen, die plausibel klingen, aber irrelevant, unsinnig oder völlig falsch sind. Diese seltsamen Umwege werden Halluzinationen genannt. Andere Menschen sind so sehr in Chatbots vertieft, dass sie fälschlicherweise glauben, die Software program sei empfindungsfähig, was bedeutet, dass sie außerhalb der menschlichen Kontrolle denken, fühlen und handeln kann. Experten sagen, dass es das nicht kann, zumindest noch nicht, aber es kann fließend sprechen, so dass es etwas Lebendiges nachahmt.

Eine weitere Sorge ist Deepfakes, Hierbei handelt es sich um synthetisch erzeugte Fotos, Audio- oder Videodateien, die gefälscht sind, aber echt aussehen. Dieselbe Technologie, die beeindruckende Bilder produzieren kann, könnte eingesetzt werden, um Kriege vorzutäuschen, Prominente dazu zu bringen, Dinge zu sagen, die sie nicht wirklich gesagt haben, oder Massenverwirrung oder Schaden anzurichten.

Unternehmen testen ihre Modelle der künstlichen Intelligenz auf Schwachstellen und beseitigen Vorurteile und Schwächen, indem sie Fehler in einem Prozess namens Crimson Teaming simulieren.

Trotz der Versuche, die Technologie zu zähmen, bereiten die Innovation und Ausgereiftheit der generativen KI einigen Sorgen.

„Wenn Dinge wie Menschen mit uns sprechen, fangen wir ein wenig an, ungläubig zu sein“, sagte Mark Riedl, Informatikprofessor an der Georgia Tech und Experte für maschinelles Lernen. „Wir gehen irgendwie davon aus, dass diese Dinge versuchen, uns treu zu bleiben, und wenn sie maßgebend wirken, fällt es uns schwer, skeptisch zu sein.“

Unternehmen im Chatbot-Rennen

  • OpenAI: Das in San Francisco ansässige Forschungslabor für künstliche Intelligenz wurde als gemeinnützige Organisation gegründet, um „künstliche allgemeine Intelligenz“ außerhalb der Kontrolle von Large Tech zu entwickeln. Seitdem hat es sich zu einem wichtigen Unternehmensakteur entwickelt und den Bildgenerator DALL-E und den Chatbot ChatGPT entwickelt. Mittlerweile ist das Unternehmen gewinnorientiert und hat Partnerschaften mit Unternehmen wie Microsoft und Salesforce geschlossen.
  • Google: Der Technologieriese, seit langem führend im Bereich KI, auch über die Suche, startete den Chatbot Bard, nachdem die Angebote der Konkurrenz viral gingen. Es ist bekannt für seine LaMDA-Technologie, ein System zur Erstellung von Chatbots auf Foundation großer Sprachmodelle.
  • Microsoft: Das Softwareunternehmen investierte Milliarden von Greenback in OpenAI und entwickelte gemeinsam einen Bing-Chatbot, der auf GPT-4-Technologie entwickelt wurde. Aber es gab Fehltritte, unter anderem als der Chatbot abtrünnig wurde, Reportern sagte, er habe Gefühle und sich Sydney nannte, was den Technologieriesen dazu zwang, in gewisser Weise einen Rückzieher zu machen.
  • Meta: Noch vor ChatGPT veröffentlichte die Muttergesellschaft von Fb einen Chatbot namens Blenderbot, der sich jedoch nicht durchsetzen konnte. Sein Chefwissenschaftler für künstliche Intelligenz nannte den Bot später „langweilig“, weil er „sicher gemacht“ wurde.
  • IBM: IBM battle ein früher Vorreiter im Bereich der künstlichen Intelligenz und nah an den aktuellen Chatbot-Traits, insbesondere mit seinem Roboter Watson, der das Publikum bei „Jeopardy!“ fesselte.



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here