Um KI effektiv zur Bereicherung unseres Lebens nutzen zu können, müssen wir diesen Unterschied verstehen
Da Unternehmen weiterhin neue Technologien wie maschinelles Lernen, generative KI und Deep Studying einführen, ist eines der dringendsten Probleme auf diesem Gebiet in den Vordergrund der Diskussionen gerückt: die Voreingenommenheit bei KI-Agenten. Wir haben viele Leute gesehen, die über KI-Vorurteile und die damit verbundenen Herausforderungen gesprochen haben. In zeitgenössischen Diskussionen wird jedoch oft übersehen, dass menschliche Voreingenommenheit und Voreingenommenheit in Systemen der künstlichen Intelligenz grundlegend unterschiedlich sind. Obwohl wir für beide Phänomene dasselbe Wort verwenden, sind diese beiden sehr unterschiedlicher Natur.
Dies wird in vielen Diskussionen über sichere KI sehr problematisch, da die Menschen diese oft ähnlich behandeln und daher Lösungen entwickeln, die zwar für den Menschen, aber nicht für die KI sicher sind. Dies geschieht, weil Menschen notorisch schlecht damit umgehen können Voreingenommenheit durch falschen Konsens, wobei wir davon ausgehen, dass andere wie wir sind (und sich ähnlich verhalten würden). Auf die KI übertragen kann dies katastrophale Auswirkungen haben, die wir angehen müssen. Das Verständnis des Unterschieds zwischen KI und menschlichen Vorurteilen wird hilfreich sein, um diesem Drawback vorzubeugen. In diesem Artikel wird darauf eingegangen, zusammen mit einigen Problemen, die sich aus der Verwechslung der verschiedenen Arten von Vorurteilen ergeben. Es endet mit einer Diskussion darüber, warum GPT-basierte Einstellungstools eine schreckliche Idee sind (stellen Sie sicher, dass Sie lesen, dass es wichtig ist, auch wenn Sie alles andere überspringen).
Schauen wir uns zunächst die Vorurteile im menschlichen Gehirn und ihre Wirkungsweise an. Wenn wir uns Vorurteile bei Menschen ansehen, fallen einige Dinge an ihnen auf:
- Architektur- Es gibt Vorurteile beim Menschen, weil unser Körper/Gehirn so konstruiert ist. Menschliche Voreingenommenheit ist ein Merkmal, kein Fehler – und wird bestehen bleiben, solange wir leben (diese Voreingenommenheit erstreckt sich über die Grenzen des Menschen hinaus und ist ein Merkmal des meisten Lebens). Obwohl menschliche Vorurteile oft wie eine schmutzige Kleinigkeit behandelt werden, handelt es sich dabei um ein moralisch neutrales Phänomen. Es ist ein (entscheidender) Teil der Entwicklung des Lebens.
- Der Grund für die Voreingenommenheit- Es gibt Vorurteile, weil sie unserem Gehirn helfen, Energie zu sparen und schnellere Entscheidungen zu treffen. Das ist eigentlich alles, was sie tun (schauen Sie sich System 1 und System 2 aus dem fantastischen Buch Pondering Quick and Sluggish an). Ohne Vorurteile wäre unser Geist überfordert, da er alle Informationen/Reize als neu ansieht und so unsere geistige Energie schnell erschöpft. Es gibt bestimmte Arten von Voreingenommenheit, die adverse Folgen haben – rassistische Voreingenommenheit, sexuelle Voreingenommenheit usw. Aber ein Phänomen – Voreingenommenheit ist weder intestine noch schlecht.
Viele Diskussionen über menschliche Vorurteile scheinen diese Nuance zu übersehen. Unsere Vorurteile als Ganzes sind von Natur aus unproblematisch. Im Gegenteil, sie spielen eine entscheidende Rolle, insbesondere in einer Welt, die so voller „neuer“ Inhalte ist wie unsere.
Wenn es darum geht, Voreingenommenheit bei Menschen zu beseitigen, ist es ein aussichtsloser Kampf. Aufgrund unserer Absicht werden wir immer voreingenommen sein. Wir müssen zwischen den schädlichen Vorurteilen (rassisch, sozial usw.) und den harmlosen Vorurteilen (meine Tendenz, dunkles oder Minzschokoladeneis anstelle von Vanille zu bevorzugen) unterscheiden. Nachdem wir diesen Hintergrund geklärt haben, wollen wir nun Vorurteile in auf maschinellem Lernen basierenden Systemen untersuchen.
Auch hier wird der Schwerpunkt darauf liegen, wie sich Voreingenommenheit in auf maschinellem Lernen basierenden Systemen einschleicht. Während sich die besprochenen Ideen auf die allgemeinere „KI“ übertragen lassen, ist die künstliche Intelligenz als Feld äußerst breit gefächert und daher ist es viel schwieriger, aussagekräftige Pauschalaussagen zu treffen. Nachdem wir das geklärt haben, kommen wir zu den Hauptpunkten dieses Abschnitts.
Lassen Sie uns zunächst Voreingenommenheit beim maschinellen Lernen definieren. Abhängig davon, wie es verwendet wird, kann es eines von zwei Dingen sein:
- Wie falsch ein Prädiktor ist. Dies ist die Definition, die wir in Diskussionen über den Bias-Varianz-Kompromiss sehen, den wir in diesem Video besprochen haben.
- Ob das Modell menschliche Vorurteile kodiert. Wenn ein Mannequin die Kreditwürdigkeit eines Kandidaten aufgrund seiner Rasse herabsetzt, dann zwar aus historisch gültigen Gründen, aber zu einem unerwünschten Ergebnis. Dies magazine wie ein absurdes Beispiel erscheinen, aber es kommt (indirekt) vor. Der ethnische/sozioökonomische Standing ist stark in verschiedene Attribute kodiert, die in verschiedenen Vorhersagemodellen verwendet werden. Modelle bestrafen dann zu Unrecht die Menschen, die diese Eigenschaften möglicherweise teilen – und fördern so die Ungleichheiten, die die automatisierten Entscheidungsträger angeblich vermeiden wollten.
Die letztere Artwork von Voreingenommenheit führt zu einem sehr interessanten Fall – manchmal brauchen wir Voreingenommenheit (der ersten Artwork), um die Voreingenommenheit der zweiten Artwork zu bekämpfen. Beim Umgang mit sensiblen, lebensverändernden Agenten – Bonitätsprüfungen, Gesundheitsanalysen und Krankheitserkennung – kann es sogar von Vorteil sein, Fehler in Ihr Modell einzubauen, damit es die Verzerrungen in Ihren Daten nicht zu genau lernt (die letzten 2). Fälle spreche ich aus eigener Erfahrung). Mit anderen Worten: Voreingenommenheit bekämpft Voreingenommenheit. Durch den Einsatz von Techniken wie Knowledge Augmentation entfernen wir uns am Ende weiter von der Verteilung unserer aufgezeichneten Daten (additionally mit mehr „Voreingenommenheit“), aber mit weniger voreingenommenen Systemen.
Die zunehmende Abhängigkeit von Anwendungen zur Verarbeitung natürlicher Sprache auf großen Sprachmodellen, auf denen trainiert wird intrinsisch voreingenommene Net-Scale-Korpora hat die Bedeutung genauer Equity-Metriken und -Verfahren für die Erstellung robusterer Modelle verstärkt … Wir schlagen zwei Modifikationen der Basiswissensdestillation vor, die auf einer kontrafaktischen Rollenumkehr basieren – die Modifikation der Lehrerwahrscheinlichkeiten und die Erweiterung des Trainingssatzes.
Dies ist einer der Aspekte der Verzerrung, die es so schwierig macht, damit umzugehen – es ist leicht, Verzerrungen, die durch einen schwachen Prädiktor verursacht werden (in Ihren Modellen verborgene Verzerrungen), mit Verzerrungen aufgrund systemischer Probleme (in Ihren Daten verborgene Verzerrungen) zu verwechseln. Dieses Drawback verschärft sich häufig in Groups für maschinelles Lernen, da viele ML-Groups stark auf Kennzahlen ausgerichtet sind und sich nur sehr wenig auf den Kontext konzentrieren, in dem ihre Pipelines verwendet werden. Dies führt dazu, dass Groups eher darauf ausgerichtet sind, bei Benchmarks hohe Ergebnisse zu erzielen, als sinnvolle Lösungen zu entwickeln. Das Ergebnis: großartige ML-Ergebnisse, fantastische Leistungen für „normale“ Leute und zunehmende Isolation für die Randgruppen der Gesellschaft. Nur ist dieses Drawback dieses Mal viel subtiler als die Isolationspolitik, die diese besondere Ungleichheit überhaupt erst geschaffen hat.
Nachdem wir diesen langen Monolog über Bias hinter uns haben, schauen wir uns endlich einige entscheidende Eigenschaften von Bias in ML-Systemen an:
- Die Kosten sind größtenteils konstant. Im Gegensatz zu menschlichen Vorurteilen sparen Vorurteile in ML-Systemen nicht mehr Energie. Die Daten werden weiterhin über alle Neuronen usw. verarbeitet.
- Von statistischen Vereinigungen- Die Verzerrungen in auf maschinellem Lernen basierenden KI-Systemen bestehen, weil die Prädiktoren eine Artwork statistisches Muster lernen, das diese Verzerrung aufweist. Eine Verzerrung vom Typ 1 wird verursacht, wenn das Muster für unseren Prädiktor zu komplex ist. Eine Verzerrung vom Typ 2 tritt auf, wenn das Modell codierte Verzerrungen in den Daten lernt. Es ist nicht dem KI-Modell selbst inhärent.
Eine großartige Lektüre zu diesem Thema ist der fantastische Artikel: Beseitigung von Verzerrungen in KI/ML (Der Autor, Michael, hat im ganzen Artikel ziemlich genau auf den Punkt gebracht). Von dem Aufsatz gab es zwei Absätze, die ich besonders überzeugend fand:
Wenn es darum geht, die Vorurteile beim maschinellen Lernen zu identifizieren, besteht der erste Schritt darin, die Vorurteile zu identifizieren, mit denen wir es zu tun haben. Betrachten wir eine Verzerrung aufgrund einer Schwäche des Modells oder einer Schwäche des Methods, mit dem wir experimentieren? Dies ist ein sehr wichtiger Schritt, der heutzutage bei der Entwicklung von KI-Lösungen oft übersehen wird. Wenn man die unterschiedlichen Vorurteile und ihre Nuancen nicht versteht, entwickelt man Lösungen, die wie eine gute Idee klingen, bis man wirklich anfängt, über die tieferen Auswirkungen dieser Produkte nachzudenken.
Nehmen Sie die sehr beliebten GPT-Lösungen für LinkedIn-Profile, das Verfassen von Lebensläufen/Anschreiben, die Einstellung und die Mitarbeiterbewertung, die auf dem Markt im Umlauf sind. Ich habe Gespräche mit einigen Gruppen geführt, die solche Lösungen entweder entwickelten oder kaufen wollten (diese Gespräche waren ein wichtiger Grund, warum ich dies schreibe). Diese Systeme funktionieren bei Checks hervorragend, weisen jedoch einen großen Fehler auf: GPT ist weiß, amerikanisch, neurotypisch und (meistens) wohlhabend. Die Verwendung dieser Systeme zur Einstufung und Beurteilung realer Menschen ist eine sehr verdrehte Artwork, sie zur Einhaltung dieser Requirements zu zwingen. Die Worte einer Particular person zu kontrollieren ist ein guter erster Schritt zur Kontrolle ihrer Gedanken. Diese „intelligenten“ Einstellungsinstrumente sind archaisch, kolonial (ich verwende dieses Wort nicht leichtfertig) und sehr ausschließend. Dies wird in ML-Benchmarks nicht angezeigt, da bei den meisten „professionellen“ Checks das gleiche Drawback auftritt. Wenn Sie dies auf einen vielfältigen Arbeitsplatz anwenden, werden Sie katastrophale Ergebnisse sehen.
Die Nachwirkungen davon wären eine großartige Satire.
- Diese Instruments werden Personen ausschließen, die nicht intestine genug in das Schema passen, und die Organisationen mit Personen füllen, die weitgehend ähnlich sind.
- Irgendwann wird den Leuten der Mangel an Diversität in diesen Organisationen auffallen, und das obere Administration wird mit symbolischen Einstellungsprogrammen für den Einstieg reagieren.
- Den Einsteigern würde es schwerfallen, sich in das homogene Umfeld dieser Organisation einzufügen – was zu schlechterer Leistung, höherer Mitarbeiterabwanderung usw. führen würde.
- Die Organisationen würden einen meist neurotypischen/einen „Insider“-Bodendatenwissenschaftler (wie mich) engagieren, um ihre internen Daten zu analysieren – was zur Identifizierung dieser „Problembereiche“ führen würde.
- Die Vorurteile werden verstärkt, was den Prozess noch ausschließender macht.
Das Schlimmste daran ist, dass die „divergenten“ Gruppen auf der Einstiegs-/unteren Ebene eingestellt werden und die meisten nie die Probability haben werden, in die oberen Führungsebenen aufzusteigen, wo sie einen kulturellen Wandel bewirken können.
Wenn Sie aus diesem Artikel nichts anderes mitnehmen, denken Sie daran: Diese Einstellungstools sind viel zu unsicher, um verwendet zu werden. Seit ich mit dem Schreiben begonnen habe, versuche ich, meine Arbeit weitgehend impartial und objektiv zu halten. Dies ist einer der wenigen Fälle, in denen ich das nicht tun werde. Die KI-Doomer haben recht, was das gesellschaftliche Risiko dieser Instruments angeht, nur nicht in der Artwork und Weise, wie die meisten behaupten. Diese KI-Instruments können jemanden, der schwarz/schwul/trans/neurodivergent ist, nicht identifizieren und ihn ablehnen. Sie werden die Menschen aus den Außenseitergruppen zwingen, eine Maske aufzusetzen und eine Rolle zu spielen, solange sie sich in diesen Organisationen engagieren.
Ich werde das hier beenden. Wenn Sie anderer Meinung sind oder glauben, dass ich etwas falsch gemacht habe, lassen Sie es mich wie immer wissen. Ich freue mich immer über Diskussionen, insbesondere über wichtige Themen wie diese. Meine Hyperlinks finden Sie am Ende, wenn Sie mir eine Nachricht senden möchten.
Das ist es für dieses Stück. Ich schätze Ihre Zeit. Wenn Sie wie immer daran interessiert sind, mit mir zusammenzuarbeiten oder sich meine anderen Arbeiten anzusehen, finden Sie meine Hyperlinks am Ende dieser E-Mail/dieses Beitrags. Wenn Ihnen meine Texte gefallen, würde ich mich sehr über ein anonymes Zeugnis freuen. Sie können es hier abgeben. Und wenn Sie diesen Artikel für wertvoll halten, würde ich mich freuen, wenn Sie ihn mit mehr Menschen teilen. Es sind Mund-zu-Mund-Propaganda wie Ihre, die mir helfen, zu wachsen.
Sparen Sie Zeit, Energie und Geld, die Sie durch die Durchsicht all dieser Movies, Kurse, Produkte und „Coaches“ verbrauchen würden, und finden Sie ganz einfach alle Ihre Bedürfnisse an einem Ort unter „Technik leicht gemacht“! Bleiben Sie mit Experteneinblicken, Tipps und Ressourcen immer einen Schritt voraus in den Bereichen KI, Softwareentwicklung und Technologiebranche. 20 % Rabatt für neue Abonnenten, wenn Sie auf diesen Link klicken. Abonnieren Sie jetzt und vereinfachen Sie Ihre Tech-Reise!
Durch die Nutzung dieses Rabatts werden die Preise gesenkt.
800 INR (10 USD) → 640 INR (8 USD) professional Monat
8000 INR (100 USD) → 6400 INR (80 USD) professional Jahr (533 INR /Monat)
Erhalten Sie 1 Jahr lang 20 % Rabatt
Verwenden Sie die untenstehenden Hyperlinks, um sich meine anderen Inhalte anzusehen, mehr über Nachhilfe zu erfahren, mich wegen Projekten zu kontaktieren oder einfach nur Hallo zu sagen.
Kleine Ausschnitte über Technologie, KI und maschinelles Lernen hier
KI-Newsletter – https://artificialintelligencemadesimple.substack.com/
Der Lieblings-Tech-Newsletter meiner Oma – https://codinginterviewsmadesimple.substack.com/
Schauen Sie sich meine anderen Artikel auf Medium an. : https://rb.gy/zn1aiu
Mein YouTube: https://rb.gy/88iwdd
Kontaktieren Sie mich auf LinkedIn. Lassen Sie uns verbinden: https://rb.gy/m5ok2y
Mein Instagram: https://rb.gy/gmvuy9
Mein Twitter: https://twitter.com/Machine01776819