Oder weiß Spotify, was Sie hören möchten? Oder Amazon, was Sie am wahrscheinlichsten kaufen werden? Sie alle nutzen KI (Künstliche Intelligenz), um Ihr Verhalten vorherzusagen und zu beeinflussen.
Ihr Ziel ist es, Ihnen Werbung zu zeigen oder mehr zu verkaufen, aber ähnliche KI-Technologie kann auch verwendet werden, um Ihre Abstimmung zu beeinflussen und Wahlen zu übernehmen. Die Apps analysieren, was Ihnen gefällt, worauf Sie reagieren und sind clever genug, um Ihnen sofort Nachrichten zu präsentieren, mit denen Sie wahrscheinlich interagieren werden. Und wenn sie etwas falsch machen, sind sie schlau genug, den Kurs zu ändern und es besser zu machen. Diese KI-Apps können völlig Fremde ansprechen, von denen sie nichts wissen, oder jemanden, über den sie Kauf- (oder Abstimmungs-)Daten haben. Gleiche Technologie, anderer Zweck.
Erinnern Sie sich an Berichte über Republikaner, die mithilfe von Cambridge Analytica falsche Informationen auf Fb verbreiteten, um schwarze Wähler zu unterdrücken? Das battle primitiv im Vergleich zu dem, was jetzt mit KI möglich ist. Wie unterscheidet sich KI von herkömmlichen Ansätzen, die Information Mining und Social-Media-Anzeigen nutzen? Wie erfahren Apps so schnell so viel über Sie? Wie nutzen politische Kampagnen KI?
Das Infografik wurde inspiriert von „Eine KI-gesteuerte politische Kampagne könnte für alle Menschen von Bedeutung sein“ von Archon Fung, Professor für Staatsbürgerschaft und Selbstverwaltung, Harvard Kennedy College, und Lawrence Lessig, Professor für Recht und Führung, Harvard College.
Kampagnen haben sich mit der Technologie weiterentwickelt. Herkömmliche Ansätze wie Kampagnenanzeigen übermittelten einer großen Zielgruppe die gleiche Botschaft, ohne dass es Rückmeldungen dazu gab, wie effektiv die Botschaft battle. Soziale Medien verbesserten das Nachrichten-Focusing on, indem sie es Kampagnen ermöglichten, bestimmte Nachrichten an bestimmte Gruppen zu senden und „ähnliche“ Zielgruppen oder Personen mit ähnlichen Merkmalen zu finden. Die übermittelten Nachrichten wurden jedoch größtenteils von Menschen generiert, die analysierten, wie die einzelnen Kampagnenbotschaften bei der Zielgruppe ankamen.
Unternehmen wie TikTok, NetFlix, Spotify und Amazon sind erfolgreich, indem sie Ihnen Inhalte zum Ansehen oder Kaufen in Echtzeit präsentieren. Ihre Softwarealgorithmen sind darauf ausgelegt, Sie zu beschäftigen und Dinge zu kaufen. Jeder wird präsentiert Inhalte, die individuell auf sie zugeschnitten sind. Nicht als Gruppe oder als „ähnliches“ Publikum. KI hat die Macht, Millionen solcher personalisierter Gespräche gleichzeitig zu führen.
Das Infografik zeigt, wie sich die Erstellung und Verfeinerung politischer Botschaften entwickelt hat. Wie sich die Kommunikationskanäle zur Übermittlung von Überzeugungsbotschaften erweiterten. Und wie sich der Grad der Nachrichtenanpassung verbessert hat.
„KI könnte die Automatisierung nutzen, um den Umfang und möglicherweise die Wirksamkeit von Verhaltensmanipulations- und Micro-Focusing on-Techniken, die seit den frühen 2000er Jahren in politischen Kampagnen eingesetzt werden, dramatisch zu steigern. So wie Werbetreibende jetzt Ihren Browser- und Social-Media-Verlauf nutzen, um individuell kommerzielle und politische Anzeigen auszurichten, würden KI-Apps wie die hypothetische Clogger Ihnen – und Hunderten Millionen anderen Wählern – individuell Aufmerksamkeit schenken.
Erstens würde sein Sprachmodell Nachrichten generieren – Texte, soziale Medien und E-Mails, möglicherweise auch Bilder und Movies –, die auf Sie persönlich zugeschnitten sind. Während Werbetreibende strategisch eine relativ kleine Anzahl von Anzeigen platzieren, können Sprachmodelle wie ChatGPT im Laufe einer Kampagne unzählige einzigartige Nachrichten für Sie persönlich – und Millionen für andere – generieren.“
„KI würde eine Technik namens Reinforcement Studying nutzen, um eine Folge von Nachrichten zu generieren, die immer wahrscheinlicher werden, dass sie Ihre Stimme ändern. Reinforcement Studying ist ein auf maschinellem Lernen basierender Trial-and-Error-Ansatz, bei dem der Pc Maßnahmen ergreift und Suggestions darüber erhält, welche besser funktionieren, um zu lernen, wie ein Ziel erreicht werden kann. Maschinen, die Go, Schach und viele Videospiele besser spielen können als jeder Mensch, haben Reinforcement Studying eingesetzt.
KI-Nachrichten könnten sich weiterentwickeln, um Ihre Reaktionen auf frühere Meldungen der Maschine und die Erkenntnisse der Maschine über die Änderung der Meinung anderer zu berücksichtigen. Clogger wäre im Laufe der Zeit in der Lage, dynamische „Gespräche“ mit Ihnen – und Millionen anderer Menschen – zu führen. Die Nachrichten von Clogger ähneln Anzeigen, die Ihnen auf verschiedenen Web sites und in sozialen Medien folgen.“ — Die Unterhaltung
„Der Präsident konnte nicht gewählt werden, weil seine politischen Vorschläge oder politischen Ideen mehr Amerikaner überzeugten, sondern weil er oder sie über die effektivere KI verfügte. Die Inhalte, die sich durchgesetzt haben, wären von einer KI gekommen, die sich ausschließlich auf den Sieg konzentriert und keine eigenen politischen Ideen hat, und nicht von Kandidaten oder Parteien … In diesem sehr wichtigen Sinne hätte eine Maschine und nicht eine Particular person die Wahl gewonnen. Die Wahl wäre nicht mehr demokratisch, selbst wenn alle normalen Aktivitäten der Demokratie – die Reden, die Anzeigen, die Botschaften, die Abstimmung und die Auszählung der Stimmen – stattgefunden hätten.
Die Wähler wären von der KI manipuliert worden, anstatt ihre politischen Führer und Richtlinien frei zu wählen.” — Die Unterhaltung
Wegbringen: Verstehen Sie, wie KI zur Übernahme von Wahlen eingesetzt werden kann und was getan werden kann, um solche Manipulationen einzudämmen.
Deepak
DemLabs
HAFTUNGSAUSSCHLUSS: OBWOHL DIE IN DIESEM BLOG UND IN DER INFOGRAFIE ENTHALTENEN DATEN AUS QUELLEN ERZEUGT UND VERARBEITET WURDEN, DIE ALS ZUVERLÄSSIG GEMACHT WERDEN, KANN KEINE AUSDRÜCKLICHE ODER STILLSCHWEIGENDE GARANTIE HINSICHTLICH DER RICHTIGKEIT, VOLLSTÄNDIGKEIT, RECHTLICHKEIT ODER ZUVERLÄSSIGKEIT SOLCHER INFORMATIONEN ÜBERNOMMEN WERDEN. DIESER HAFTUNGSAUSSCHLUSS GILT FÜR JEGLICHE VERWENDUNG DER INFORMATIONEN, OB EINZELNE ODER ALS GESAMTVERWENDUNG.
Ressourcen:
Fb-Datenmissbrauch und Wählermanipulation sind mit den neuesten Leaks von Cambridge Analytica wieder im Fokus – TechCrunch
Wie KI Wahlen übernehmen und die Demokratie untergraben könnte Gespräch