Dieses KI-Tool erklärt, wie KI Bilder „sieht“ und warum sie einen Astronauten möglicherweise mit einer Schaufel verwechselt

0
29


Es ist allgemein anerkannt, dass die künstliche Intelligenz (KI) in den letzten Jahren erhebliche Fortschritte gemacht hat und zu bemerkenswerten Erfolgen und bahnbrechenden Ergebnissen geführt hat. Es stimmt jedoch nicht, dass KI bei allen Aufgaben gleichermaßen beeindruckende Ergebnisse erzielen kann. Während KI beispielsweise bei bestimmten visuellen Aufgaben wie der Gesichtserkennung die menschliche Leistung übertreffen kann, kann sie auch verwirrende Fehler bei der Bildverarbeitung und -klassifizierung aufweisen und so die Herausforderung der anstehenden Aufgabe verdeutlichen. Daher ist das Verständnis des Innenlebens solcher Systeme für die jeweilige Aufgabe und die Artwork und Weise, wie sie zu bestimmten Entscheidungen kommen, zu einem Gegenstand großen Interesses und Untersuchungen bei Forschern und Entwicklern geworden. Es ist bekannt, dass KI-Systeme ähnlich wie das menschliche Gehirn Strategien zur Analyse und Kategorisierung von Bildern verwenden. Die genauen Mechanismen hinter diesen Prozessen sind jedoch noch unklar, was zu einem Black-Field-Modell führt.

Daher besteht ein wachsender Bedarf an Erklärbarkeitsmethoden zur Interpretation von Entscheidungen, die von modernen Modellen des maschinellen Lernens, insbesondere neuronalen Netzen, getroffen werden. In diesem Zusammenhang erfreuen sich Attributionsmethoden zunehmender Beliebtheit, die Heatmaps erstellen, die die Bedeutung einzelner Pixel für die Beeinflussung der Modellentscheidung anzeigen. Neuere Forschungen haben jedoch die Grenzen dieser Methoden deutlich gemacht, da sie sich in der Regel ausschließlich auf die hervorstechendsten Bereiche eines Bildes konzentrieren und diese aufdecken Wo Das Modell sieht aus, ohne es zu erklären Was Das Modell nimmt innerhalb dieser Bereiche wahr. Um tiefe neuronale Netze zu entmystifizieren und die Strategien aufzudecken, mit denen KI-Systeme Bilder verarbeiten, arbeiteten ein Forscherteam des Carney Institute for Mind Science an der Brown College und einige Informatiker des Instituts für künstliche und natürliche Intelligenz Toulouse (Frankreich) an der Entwicklung CRAFT (Idea Recursive Activation FacTorization for Explainability). Dieses modern Device zielt darauf ab, das „Was“ und „Wo“ zu erkennen, auf das sich ein KI-Modell während des Entscheidungsprozesses konzentriert, und betont so die Unterschiede in der Artwork und Weise, wie das menschliche Gehirn und ein Laptop-Imaginative and prescient-System visuelle Informationen erfassen. Die Studie wurde auch auf der renommierten Laptop Imaginative and prescient and Sample Recognition Convention 2023 in Kanada vorgestellt.

Wie bereits erwähnt, struggle es eine Herausforderung zu verstehen, wie KI-Systeme mithilfe von Attributierungsmethoden Entscheidungen anhand bestimmter Bildbereiche treffen. Allerdings reicht es nicht aus, den Menschen eine umfassende Erklärung zu liefern, wenn man einfach nur die einflussreichen Regionen identifiziert, ohne zu klären, warum diese Regionen von entscheidender Bedeutung sind. CRAFT geht dieser Einschränkung entgegen, indem es moderne Techniken des maschinellen Lernens nutzt, um die komplexen und mehrdimensionalen visuellen Darstellungen zu entschlüsseln, die von neuronalen Netzen gelernt werden. Um das Verständnis zu verbessern, haben die Forscher eine benutzerfreundliche Web site entwickelt, auf der Einzelpersonen diese grundlegenden Konzepte, die von neuronalen Netzen zur Klassifizierung von Objekten verwendet werden, mühelos erkunden und visualisieren können. Darüber hinaus betonten die Forscher auch, dass Benutzer mit der Einführung von CRAFT nicht nur Einblicke in die Konzepte erhalten, die ein KI-System verwendet, um ein Bild zu erstellen und zu verstehen, was das Modell in bestimmten Bereichen wahrnimmt, sondern auch die hierarchische Rangfolge dieser Konzepte verstehen. Dieser bahnbrechende Fortschritt bietet eine wertvolle Ressource zur Aufklärung des Entscheidungsprozesses von KI-Systemen und zur Verbesserung der Transparenz ihrer Klassifizierungsergebnisse.

Im Wesentlichen lassen sich die wichtigsten Beiträge der Forscher in drei Hauptpunkten zusammenfassen. Das Staff entwickelte in erster Linie einen rekursiven Ansatz, um Konzepte effektiv über mehrere Ebenen hinweg zu identifizieren und aufzuschlüsseln. Diese modern Strategie ermöglicht ein umfassendes Verständnis der zugrunde liegenden Komponenten innerhalb des neuronalen Netzwerks. Zweitens wurde eine bahnbrechende Methode eingeführt, um die Bedeutung von Konzepten mithilfe von Sobol-Indizes genau abzuschätzen. Schließlich hat die Implementierung impliziter Differenzierung die Erstellung von Idea Attribution Maps revolutioniert und ein leistungsstarkes Device zum Visualisieren und Verstehen der Assoziation zwischen Konzepten und Options auf Pixelebene freigeschaltet. Darüber hinaus führte das Staff eine Reihe experimenteller Auswertungen durch, um die Effizienz und Bedeutung seines Ansatzes zu untermauern. Die Ergebnisse zeigten, dass CRAFT alle anderen Attributionsmethoden übertrifft, seinen bemerkenswerten Nutzen untermauert und sich als Sprungbrett für die weitere Forschung im Bereich konzeptbasierter Erklärbarkeitsmethoden etabliert.

Die Forscher betonten auch, wie wichtig es sei, zu verstehen, wie Laptop Bilder wahrnehmen. Durch den Gewinn tiefgreifender Einblicke in die von KI-Systemen eingesetzten visuellen Strategien verschaffen sich Forscher einen Wettbewerbsvorteil bei der Verbesserung der Genauigkeit und Leistung visionbasierter Instruments. Darüber hinaus erweist sich dieses Verständnis als vorteilhaft gegen gegnerische Angriffe und Cyberangriffe, da es Forschern hilft zu verstehen, wie Angreifer KI-Systeme durch subtile Änderungen der Pixelintensitäten auf eine Weise täuschen können, die für Menschen kaum wahrnehmbar ist. Was zukünftige Arbeiten betrifft, sind die Forscher gespannt auf den Tag, an dem Laptop-Imaginative and prescient-Systeme die menschlichen Fähigkeiten übertreffen könnten. Das Staff ist fest davon überzeugt, dass diese Systeme das Potenzial haben, ungelöste Herausforderungen wie Krebsdiagnostik, Fossilienerkennung usw. anzugehen und zahlreiche Bereiche zu verändern.


Besuche die Papier Und Referenzartikel. Vergessen Sie nicht, mitzumachen unser 25k+ ML SubReddit, Discord-Kanal, Und E-Mail-Newsletter, wo wir die neuesten Nachrichten aus der KI-Forschung, coole KI-Projekte und mehr teilen. Wenn Sie Fragen zum obigen Artikel haben oder uns etwas entgangen ist, schreiben Sie uns gerne eine E-Mail an Asif@marktechpost.com


Empfohlene Instruments:

Khushboo Gupta ist Beratungspraktikant bei MarktechPost. Derzeit absolviert sie ihren B.Tech am Indian Institute of Know-how (IIT) in Goa. Ihre Leidenschaft gilt den Bereichen maschinelles Lernen, Verarbeitung natürlicher Sprache und Webentwicklung. Es macht ihr Spaß, mehr über den technischen Bereich zu lernen, indem sie an verschiedenen Herausforderungen teilnimmt.




Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here