Ziel der Regulierung sollte es sein, Menschen vor körperlichen, geistigen, ökologischen, sozialen oder finanziellen Schäden zu schützen, die durch die Handlungen oder Fahrlässigkeit anderer verursacht werden. Vorschriften garantieren nicht, dass es nicht zu Unfällen, Ausfällen oder anderen Schäden kommt. Sollte jedoch etwas schief gehen, muss die Behebung gewährleistet sein. Dies erfordert sowohl Erklärbarkeit (um zu wissen, warum der Fehler aufgetreten ist) als auch Determinismus (um sicherzustellen, dass die Fehlerbehebung jedes Mal funktioniert) in der Lösung.
Vorschriften garantieren nicht, dass es nicht zu Unfällen, Ausfällen oder anderen Schäden kommt. Sollte jedoch etwas schief gehen, muss die Behebung gewährleistet sein. Dies erfordert sowohl Erklärbarkeit (um zu wissen, warum der Fehler aufgetreten ist) als auch Determinismus (um sicherzustellen, dass die Fehlerbehebung jedes Mal funktioniert) in der Lösung.
Stellen Sie sich vor, jemand würde fragen: „Wann sollten wir mit der Regulierung von Computersoftware beginnen?“ Das ist keine sehr präzise Frage. Was für eine Software program? Videospiele? Tabellenkalkulationen? Schadsoftware? Ebenso kann künstliche Intelligenz auf vielfältige Weise eingesetzt werden. Es ist wichtig, Typen und Anwendungsfälle zu unterscheiden. Im Folgenden werden einige Grundtypen kurz beschrieben, die gerade so detailliert sind, dass diese Frage beantwortet werden kann.
1. Automatisierung — Vieles, was heute „KI“ genannt wird, ist einfach das, was man vor einem Jahrzehnt noch „Automatisierung“ nannte. Jemand bemerkt ein Muster in seiner täglichen Arbeit mit einigen Variablen und schreibt ein Programm, um diese Arbeit für ihn zu wiederholen. Es gibt kein Lernen durch das Programm. Die „Intelligenz“ wird vom Entwickler beim Codieren bereitgestellt. Gelegentlich ändern sich einige Muster oder es erscheinen neue Variablen, die eine Aktualisierung des Codes durch den Entwickler erfordern. Wenn Sie jemals ein „Makro“ erstellt (oder Redstone in Minecraft geschickt eingesetzt) haben, dann haben Sie Ihre Arbeit automatisiert.
2. Modellierung – Die Modellierung ist einen Schritt komplexer als die bloße Automatisierung und erfordert, dass ein Entwickler das Downside ausreichend versteht, um Randfälle, Variablen und Muster zu berücksichtigen, die noch nicht gesehen wurden. Je besser das Modell, desto größer ist der mögliche Raum, der abgedeckt wird, ohne über Bord zu gehen und Fälle zu behandeln, die nie auftreten werden. Auch Modelle sind nicht lernfähig. Auch hier wird die „Intelligenz“ vom Entwickler bereitgestellt. Modelle sind statisch und erfordern manuellen Aufwand, um sie im Laufe der Zeit zu verbessern. Diese funktionieren am besten in deterministischen, genau definierten Problembereichen, in denen die Informationen vollständig bekannt sind, wie zum Beispiel Schach. Alle Regeln sind bekannt. Figuren bewegen sich auf genau festgelegte Weise. Jeder sieht die komplette Tafel – nichts bleibt verborgen. Die Variable sind die Entscheidungen des Gegners, die jedoch auf eine endliche Menge von Möglichkeiten beschränkt sind. Brute-Power-Methoden, die vor der Auswahl alle Möglichkeiten testen, oder Suchalgorithmen (z. B. A*, ausgesprochen „A Stern“), die die Anzahl der zu testenden Möglichkeiten reduzieren, finden ein optimales Gameplay. Menschen haben Modelle auch auf nichtdeterministische (dh stochastische) Probleme angewendet, die ebenfalls nicht alle Informationen liefern. Das macht der Wetterdienst, wenn er Ihnen mitteilt, dass morgen eine Regenwahrscheinlichkeit von 80 % besteht. Es gibt für sie keine Möglichkeit zu wissen, wo sich jedes Molekül befindet oder wie schnell es ist, dennoch gibt es mehrere „Wettermodelle“, die eine vernünftige Erklärung der Möglichkeiten liefern. Beachten Sie, dass die Ergebnisse als Wahrscheinlichkeiten und nicht als absolute Werte wie beim Schach zurückgegeben werden. In ähnlicher Weise erstellen Quants („quantitative Analysten“) Modelle zur Vorhersage des Aktienmarktes.
3. Maschinelles Lernen — Wenn man der Software program eine Möglichkeit gibt, ihre internen Modelle zu ändern, beginnt man damit, den Menschen aus einigen Teilen der Lösung zu entfernen. Im Wesentlichen machen Daten den Großteil der Systemprogrammierung aus. Menschen erstellen jedoch immer noch Modelle für maschinelles Lernen, wählen die ihrer Meinung nach relevanten Daten für das Coaching aus, iterieren und interpretieren Ergebnisse, bis die Antworten den Vorstellungen des Entwicklers entsprechen, wie eine gute Antwort aussehen sollte. All dies führt zu menschlicher Voreingenommenheit in der Lösung. Beispiele für Techniken des maschinellen Lernens sind „Deep Studying“, „Convolutional Neural Networks“, „Help Vector Machines“ und „Random Forests“. Diese Lösungen befassen sich mit Problembereichen, die stochastischer Natur sind und/oder fehlende oder verborgene Informationen enthalten. Glücksspiele, Anwendungsfälle wie Börsenprognosen, versicherungsmathematische Wissenschaften oder komplizierte „Huge Knowledge“ – alles gute Kandidaten für maschinelle Lerntechniken.
4. Künstliche Allgemeine Intelligenz (AGI) – Das ist der heilige Gral von allem. Der Bau von Maschinen, die allgemein genug lernen und denken und sich ohne menschliches Zutun selbstständig an Umweltveränderungen anpassen können, ist das Endspiel der Informatik, um nur ein Feld herauszugreifen. Es magazine den Anschein haben, dass zwischen 3 und 4 eine große Lücke besteht, aber die Realität ist, dass alle anderen Lösungen nur Variationen dessen sind, was bereits existiert.
Damit eine Regulierung von AGI-Lösungen überhaupt möglich ist, müssen die Komponenten dieser Lösung vollständig deterministisch und erklärbar sein.
Überlegen wir, was eine Regulierung für jeden Typ bedeuten würde. Bedenken Sie, dass die Vorschriften von den Menschen verlangen, dass sie prüfen und verstehen, was zwischen den Ein- und Ausgängen eines Programs geschieht, und zwar ausreichend, um sicherzustellen, dass die Lösung keinen Schaden anrichten kann. Regulierung basiert auf Vertrauen. Wir vertrauen darauf, dass die Regulierungsbehörden ihre Aufgaben verstehen und kompetent ausführen. Wir können die Regulierung nicht automatisieren, sonst stecken wir in einer Endlosschleife fest, um die Software program zu regulieren, die Software program reguliert, die Software program reguliert … sehen Sie? Regulierung erfordert Menschen, Vertrauen und Kompetenz.
Für die ersten beiden Arten von KI gibt es derzeit Regelungen. Der dritte und vierte Typ werden schwierig.
Regulierung der Automatisierung — Diese Programme basieren ausschließlich auf der Arbeit von Menschen. Solche Programme sind in Branchen und kritischen Anwendungen bereits reguliert. Beispielsweise muss die Autopilot-Software program eines Flugzeugs strenge Zertifizierungen bestehen, ebenso wie viele medizinische Geräte. Die Regulierung kann darin bestehen, die Software program zu prüfen, um Malware, Fehler oder Mängel aufzudecken. Im Grunde bündelt dies die Verantwortlichkeiten einer Particular person (des Entwicklers) mit denen einer anderen Particular person (dem unabhängigen Prüfer). Es wird davon ausgegangen, dass die Überprüfung durch eine zweite Particular person Unregelmäßigkeiten oder Probleme aufdeckt. (Dies ist eine trivialisierte Sicht auf das, was tatsächlich passiert. Idealerweise gibt es mehrere Testteams in unterschiedlichen Phasen der Entwicklung und Bereitstellung.) Regulierung funktioniert hier, weil Menschen diese Systeme verstehen können.
Regulierung der Modellierung — Auch diese Programme sind ausschließlich auf die Arbeit von Menschen angewiesen. Daher eignen sie sich intestine für die Regulierung. Die Modellierung ist einen Schritt ausgefeilter als die Automatisierung, daher wird es schwieriger. Aber es liegt immer noch im Bereich vertrauenswürdiger Personen, die ihre regulatorischen Pflichten kompetent erfüllen. Die von Banken verwendeten Finanzmodelle sind beispielsweise sehr streng reguliert, um sicherzustellen, dass sie unvoreingenommen funktionieren. Modellierer müssen den Aufsichtsbehörden nachweisen, dass ihre Modelle beispielsweise Kreditbestimmungen nicht aufgrund der ethnischen Zugehörigkeit diskriminieren.
Regulierung des maschinellen Lernens – Da diese Techniken speziell zur Bewältigung von Problemen eingesetzt werden, die für Normalsterbliche zu schwer zu verstehen sind, erfordert ihre Regulierung etwas anderes als die beiden vorherigen Arten. Unabhängig davon, wie vertrauenswürdig und kompetent die Regulierungsbehörden sind, werden sie die Interna der meisten dieser Lösungen für maschinelles Lernen nicht vollständig verstehen. Zumindest nicht für interessante, reale Probleme. Auf keinen Fall für nichtdeterministische Lösungen. Selbst die Behandlung einer bestimmten Technik als verständliches Modell ignoriert das Verhalten dieses Modells unter Final durch nicht validierte Daten. Vielleicht bedeutet die Regulierung, dass alle Trainingsdaten vor der Verarbeitung durch den Algorithmus überprüft und validiert werden müssen? Dies macht den Sinn des maschinellen Lernens von vornherein zunichte. Ein Beispiel dafür, wo für diese Artwork von KI eine Regulierung erforderlich ist, sind autonome Fahrzeuge. Ein Vorschlag für evidenzbasierte Ergebnisse zur Bestimmung der Sicherheit wird in einem Artikel von AP Information vom Januar 2020 über mehrere Tesla-Unfälle erwähnt, in dem der Geschäftsführer des Heart for Auto Security in Washington sagte:
„Irgendwann stellt sich die Frage: Wie viele Beweise sind nötig, um festzustellen, dass die Artwork und Weise, wie diese Technologie eingesetzt wird, unsicher ist? In diesem Fall werden diese Tragödien hoffentlich nicht umsonst sein und zu mehr als nur einer Untersuchung durch die NHTSA führen.“
Im Artikel heißt es weiter:
Levine und andere haben die Behörde aufgefordert, von Tesla zu verlangen, den Einsatz des Autopiloten auf hauptsächlich vierspurige, geteilte Autobahnen ohne Querverkehr zu beschränken. Sie möchten außerdem, dass Tesla ein besseres System zur Überwachung der Fahrer installiert, um sicherzustellen, dass sie jederzeit aufmerksam sind. Das System von Tesla erfordert, dass der Fahrer seine Hände auf das Lenkrad legt. Doch Bundesermittler haben herausgefunden, dass dieses System es den Fahrern ermöglicht, zu lange aus dem Verkehr zu ziehen.
(3 Unfälle und 3 Todesfälle werfen Fragen zum Autopiloten von Tesla auf)
Das ist ein geeignetes Maß zur Regulierung stochastischer maschineller Lernsysteme. Es geht weniger um die bekannten Einschränkungen der Software program als vielmehr um die Artwork und Weise, wie sie verwendet werden sollte – und nicht.
Es gibt different deterministische und erklärbare Algorithmen für maschinelles Lernen. Diese bieten sich den Vorschriften besser an. Wenn für bestimmte Anwendungsfälle Regulierungsgesetze für die Software program erforderlich sind, müssen die Lösungen mithilfe dieser vollständig erklärbaren Technologien implementiert werden. Diese sind für geschäftskritische Anwendungen, die versuchen, Typ-1-KIs in Branchen zu ersetzen, die bereits stark reguliert sind, unbedingt erforderlich.
Regulierung der künstlichen allgemeinen Intelligenz — Damit eine Regulierung von AGI-Lösungen überhaupt möglich ist, müssen die Komponenten dieser Lösung vollständig deterministisch und erklärbar sein. Im Vergleich zu den anderen scheint dieser in Bezug auf die Vorschriften die größte Herausforderung zu sein. Aber bedenken Sie das Ziel: Letztendlich ist es die Absicht, dass diese Systeme wie der menschliche Geist funktionieren. An diesem Punkt würden die Vorschriften wieder zu regulären Gesetzen werden, für die wir die Menschen zur Rechenschaft ziehen. Aber es wird keinen Second des Lichtwechsels geben. Bevor diese Systeme die volle Intelligenz auf menschlicher Ebene erreichen, werden sie sich zunächst durch viel bescheidenere Fähigkeiten weiterentwickeln. Sie können durch die Äquivalenz von Schnecken-, Maus-, Eichhörnchen-, Hunde- und Affengeist voranschreiten. Wenn sie ihre Entscheidungen anwenden dürfen, ist es notwendig, dass eine gewisse Zufälligkeit in den Algorithmus einfließt. Dies ist einfach auf die Entscheidungswissenschaft zurückzuführen und kein Merkmal der KI/AGI. Deterministische und stochastische Pfade können trennbar sein und daher unabhängig voneinander reguliert werden.
Regelungen für KI-Systeme gibt es bereits. Dieser Pattern wird anhalten. Leider ist unsere Gesellschaft reaktiv statt proaktiv. Es ist wahrscheinlich, dass Vorschriften erst nach Eintreten schädlicher Ereignisse umgesetzt werden. Wenn solche Tragödien passieren, sollten wir nicht voreilig die Schuld allein auf die Technologie oder den Entwickler schieben. Auch Benutzer, die die Technologie missbrauchen, und Gesetzgeber, die sich nicht über die Technologie informieren, müssen die Schuld auf sich nehmen.
Ein Fahrer, der die Anweisungen des Tesla-Autopiloten, wach zu bleiben, die Hände am Lenkrad zu lassen oder ihn nur auf Autobahnen zu bedienen, nicht befolgt, nutzt das System außerhalb seines Designs. Kommt es zu einem Unfall, muss dieser Fahrer zur Verantwortung gezogen werden. Es reicht nicht aus, zu behaupten, man wisse nichts von den Einschränkungen und gebe den Ingenieuren die Schuld. Auch die Tesla-Vermarkter haben kein schlechtes Gewissen, wenn sie das System „Autopilot“ nennen und den Verbrauchern ein überbewertetes Gefühl der Funktionalität vermitteln. Innerhalb dieser sehr menschlichen Täuschungen, ob selbst gemacht oder als aktive Teilnehmer, können Gesetzgeber Kontrollen durchsetzen. Sie müssen jedoch bereit sein, hart daran zu arbeiten, die Technologie zu verstehen, damit sie erkennen können, wo die Grenzen der Technologie enden und die menschlichen Grenzen beginnen.