banner
Nachrichtenzentrum
Unsere ISO-Zertifizierung zeigt, dass wir internationale Standards einhalten.

Die klügsten Wege zur globalen KI-Regulierung finden

Sep 04, 2023

Willkommen bei Fixing the Future, einem IEEE Spectrum-Podcast. Ich bin die leitende Redakteurin Eliza Strickland und spreche heute mit Russell Wald von der Stanford University über Bemühungen zur Regulierung künstlicher Intelligenz. Bevor wir mit dieser Folge beginnen, möchte ich die Hörer darüber informieren, dass die Kosten für die Mitgliedschaft im IEEE derzeit für den Rest des Jahres um 50 Prozent reduziert sind, sodass Sie Zugang zu Vergünstigungen haben, darunter das Spectrum Magazine sowie jede Menge Bildung und Karriere Ressourcen. Außerdem erhalten Sie einen hervorragenden Zauberwürfel mit IEEE-Logo, wenn Sie online den Code CUBE eingeben. Gehen Sie also zu IEEE.org/join, um loszulegen.

In den letzten Jahren waren Menschen, die sich mit der Erforschung künstlicher Intelligenz befassen, erstaunt über die Geschwindigkeit der Entwicklungen, sowohl über die rasanten Fortschritte bei den Fähigkeiten der KI als auch über die sich häufenden Risiken und Schattenseiten. Dann, im November, brachte OpenAI den bemerkenswerten Chatbot ChatGPT auf den Markt, und die ganze Welt begann aufmerksam zu werden. Plötzlich sprachen politische Entscheidungsträger und Experten über die Macht von KI-Unternehmen und darüber, ob sie reguliert werden müssten. Bei so viel Gerede über KI ist es schwer zu verstehen, was wirklich an der politischen Front auf der ganzen Welt passiert. Deshalb spreche ich heute mit Russell Wald, Geschäftsführer für Politik und Gesellschaft am Stanford Institute for Human-Centered Artificial Intelligence. Heute zum Thema „Fixing the Future“ spreche ich mit Russell Wald, Geschäftsführer für Politik und Gesellschaft am Stanford Institute for Human-Centered Artificial Intelligence. Russell, vielen Dank, dass Sie heute bei mir waren.

Russell Wald: Vielen Dank. Es ist schön hier zu sein.

Wir sehen derzeit viele Forderungen nach einer Regulierung der künstlichen Intelligenz. Und interessanterweise kommen einige dieser Anrufe von den CEOs der Unternehmen, die an dieser Technologie beteiligt sind. Die Chefs von OpenAI und Google haben beide offen über die Notwendigkeit von Regulierungen gesprochen. Was halten Sie von diesen Forderungen nach Regulierungen aus der Branche?

Wald: Ja. Es ist wirklich interessant, dass die Insider-Branche dies fordert. Ich denke, es zeigt, dass sie sich in einem Rennen befinden. Es gibt hier einen Teil, in dem wir uns das ansehen und sagen, dass sie nicht aufhören und zusammenarbeiten können, weil man in kartellrechtliche Probleme gerät, wenn man in diese Richtung geht. Ich denke also, dass es für sie darum geht, ausgewogenere Wettbewerbsbedingungen zu schaffen. Aber aus meiner Sicht ist es natürlich so, dass sie lieber jetzt daran arbeiten, einige dieser Vorschriften zu schaffen, als eine reaktive Regulierung zu vermeiden. Es ist also eine leichtere Pille, sie zu schlucken, wenn sie jetzt versuchen können, dies zu gestalten. Natürlich steckt der Teufel bei diesen Dingen im Detail, oder? Es stellt sich immer die Frage, über welche Art von Regulierung sprechen wir im Grunde? Und die Realität ist, dass wir sicherstellen müssen, dass bei der Gestaltung von Vorschriften natürlich die Industrie gehört wird und mit am Tisch sitzt, aber auch andere müssen mit am Tisch sitzen. Wissenschaft, Zivilgesellschaft, Menschen, die sich wirklich die Zeit nehmen, zu untersuchen, welche Regelung am effektivsten ist, die die Industrie noch ein wenig am Feuer hält, ihr aber Innovationen ermöglicht.

Ja. Und das bringt uns zu der Frage: Was muss am meisten reguliert werden? Was sind Ihrer Meinung nach die sozialen Missstände der KI, über die wir uns am meisten Sorgen machen und die wir am meisten eindämmen müssen?

Wald: Ja. Wenn ich es aus der Dringlichkeitsperspektive betrachte, sind für mich derzeit die synthetischen Medien das Besorgniserregendste. Und die Frage dabei ist: Was ist hier der Regulierungsbereich? Ich mache mir Sorgen um die synthetischen Medien, denn was wird letztendlich mit der Gesellschaft passieren, wenn niemand mehr Vertrauen in das hat, was sie sehen, und in die Richtigkeit dessen? Natürlich mache ich mir große Sorgen wegen Deep Fakes, Wahlen und solchen Dingen, aber ich mache mir genauso Sorgen um den Papst im Puffmantel. Und der Grund, warum ich mir darüber Sorgen mache, ist, dass, wenn es eine allgegenwärtige Menge an synthetischen Medien gibt, das letztendlich dazu führen wird, dass niemand mehr Vertrauen in die Wahrhaftigkeit dessen hat, was er digital sieht. Und wenn man in diese Situation gerät, entscheiden sich die Menschen dafür, das zu glauben, was sie glauben wollen, ob es nun eine unbequeme Wahrheit ist oder nicht. Und das ist wirklich besorgniserregend.

Erst diese Woche bemerkte ein Vizepräsident der EU-Kommission, dass seiner Meinung nach die Plattform offenlegen sollte, ob etwas KI-generiert sei. Ich denke, das ist der richtige Ansatz, denn Sie werden nicht unbedingt in der Lage sein, die Schaffung vieler synthetischer Medien zu stoppen, aber zumindest können Sie deren Verstärkung stoppen oder zumindest ein gewisses Maß an Offenlegung erreichen dass es etwas gibt, das darauf hinweist, dass es in Wirklichkeit möglicherweise nicht das ist, was es vorgibt, und dass Sie darüber zumindest informiert sind. Das ist einer der größten Bereiche. Das andere, was wir meiner Meinung nach im Hinblick auf die allgemeine Regulierung berücksichtigen müssen, ist mehr Transparenz in Bezug auf Stiftungsmodelle. Es sind einfach so viele Daten in diese Modelle eingeflossen. Sie sind sehr groß. Was steckt in ihnen? Wie ist die Architektur des Rechners? Denn zumindest wenn Sie sehen, dass Schäden aus dem Backend kommen, können Sie durch ein gewisses Maß an Transparenz „Aha“ sagen. Sie können zu dem zurückkehren, was das gewesen sein könnte.

Das ist interessant. Das ist also eine Möglichkeit, möglicherweise eine Reihe verschiedener Endbenutzerprobleme zu lösen, indem man am Anfang beginnt.

Wald: Nun, es ist nicht nur wichtig, am Anfang zu beginnen, sondern der wichtigste Teil ist der Transparenzaspekt. Das ist das Bedeutende, weil es anderen die Möglichkeit gibt, dies zu bestätigen. Es ermöglicht anderen zu verstehen, wohin sich einige dieser Modelle entwickeln und was letztendlich mit ihnen passieren kann. Es stellt sicher, dass wir eine vielfältigere Gruppe von Menschen am Tisch haben, was mir sehr am Herzen liegt. Und dazu gehört auch die Wissenschaft, die in diesem Bereich historisch gesehen eine sehr dynamische Rolle gespielt hat, aber seit 2014 beobachten wir einen langsamen Rückgang der Wissenschaft in diesem Bereich im Vergleich zu dem, wo die Industrie wirklich auf dem Vormarsch ist. Und das ist ein Grund zur Sorge. Wir müssen sicherstellen, dass wir eine vielfältige Gruppe von Menschen am Tisch haben, um sicherzustellen, dass bei der Veröffentlichung dieser Modelle ein gewisses Maß an Transparenz herrscht, das wir überprüfen und an dieser Diskussion teilnehmen können.

Und machen Sie sich auch Sorgen über algorithmische Voreingenommenheit und automatisierte Entscheidungssysteme, die in Justizsystemen, Rechtssystemen, medizinischen Kontexten usw. eingesetzt werden könnten?

Wald: Auf jeden Fall. Und das betrifft vor allem die Justizsysteme. Ich bin darüber so besorgt, dass ich denke, wenn wir darüber sprechen, wo es Pausen geben könnte, dann wohl weniger bei Forschung und Entwicklung, sondern vor allem beim Einsatz . Daher bin ich ohne Frage sehr besorgt über einige dieser Vorurteile und Vorurteile in Hochrisikobereichen. Aber um noch einmal auf den Aspekt der Transparenz zurückzukommen: Das ist ein Bereich, in dem Sie über ein viel umfassenderes Ökosystem verfügen können, um diese aufzuspüren und zu verstehen, warum das passieren könnte, um zu versuchen, das Risiko zu begrenzen oder diese Art von Risiko zu mindern .

Ja. Sie haben also eine Pause erwähnt. Die meisten unserer Zuhörer werden wahrscheinlich von dem Pausenbrief wissen, wie die Leute ihn nennen, der eine sechsmonatige Pause bei Experimenten mit riesigen KI-Systemen forderte. Und dann, ein paar Monate später, gab es eine offene Stellungnahme einiger KI-Experten und Brancheninsider, in der es hieß, wir müssten die existenzielle Gefahr, die von KI ausgeht, ernst nehmen. Was halten Sie von solchen Bedenken? Nehmen Sie die Sorge ernst, dass KI eine existenzielle Bedrohung für unsere Spezies darstellen könnte? Und wenn ja, glauben Sie, dass dies regulierbar ist oder im regulatorischen Kontext berücksichtigt werden sollte?

Wald: Erstens denke ich, dass sich, wie alles in unserer heutigen Gesellschaft, alles so schnell polarisiert. Wenn ich mir das also ansehe und sehe, dass Menschen entweder über existenzielle Risiken besorgt sind oder sagen, dass man sich nicht auf die Unmittelbarkeit des unmittelbaren Schadens konzentriert, dann vertraue ich den Menschen auf ihr Wort, weil sie dies aus gutem Glauben und aus unterschiedlichen Perspektiven betrachten . Wenn ich mir das ansehe, mache ich mir jedoch Sorgen über diese Polarisierung dieser Seiten und unsere Unfähigkeit, ein echtes, wahrheitsgemäßes Gespräch zu führen. Was das existenzielle Risiko angeht, ist es für mich die Nummer Eins? Nein. Ich mache mir jetzt mehr Sorgen darüber, dass mit einigen dieser Dinge ein menschliches Risiko verbunden ist. Aber zu sagen, dass das existentielle Risiko eine Wahrscheinlichkeit von 0 % ist, würde ich nein sagen. Und deshalb sollten wir darüber natürlich intensive und nachdenkliche Gespräche führen, aber ich denke, wir müssen aus einem ausgewogenen Ansatz heraus an die Sache herangehen. Wenn wir es so betrachten, sind die positiven Aspekte der Technologie ziemlich bedeutsam. Wenn wir uns ansehen, was AlphaFold mit der Proteinfaltung gemacht hat, könnte dies an sich einen so erheblichen Einfluss auf die Gesundheit und die Bekämpfung seltener Krankheiten mit Therapien haben, die zuvor nicht verfügbar gewesen wären. Gleichzeitig gibt es jedoch einen Bereich, der mir im Hinblick auf das existenzielle Risiko wirklich Sorgen bereitet, und zwar der Punkt, an dem der Mensch bei dieser Technologie ins Spiel kommt. Und das sind Dinge wie synthetische Bio, oder? Durch synthetisches Bio könnten Wirkstoffe entstehen, die wir nicht kontrollieren können, und es kann zu einem Laborleck oder etwas wirklich Schrecklichem kommen. Es geht also darum, wie wir darüber nachdenken, was wir in vielen dieser besonderen Fälle tun werden.

Am Stanford Institute for Human-Centered AI sind wir eine interne Organisation, die Zuschüsse für unsere Fakultät gewährt. Und bevor sie überhaupt mit einem Projekt beginnen können, das sie finanzieren lassen möchten, müssen sie eine Ethik- und Gesellschaftsprüfungserklärung durchgehen. Und man muss hingehen und sagen: „Ich denke, das wird passieren, und das sind die Dual-Use-Möglichkeiten.“ Und ich war der Empfänger dieser Sache, und ich sage Ihnen, es ist nicht nur ein Spaziergang im Park mit einer Checkliste. Sie kamen zurück und sagten: „Darüber haben Sie nicht nachgedacht. Wie würden Sie das verbessern? Was würden Sie tun?" Und allein wenn wir diesen ganzheitlichen Aspekt des Verständnisses des gesamten Risikos der Dinge betrachten, ist dies ein Schritt, den wir tun können, um im weiteren Verlauf der Entwicklung etwas darüber zu lernen. Aber noch einmal, um auf Ihren Punkt zurückzukommen: Ich denke, wir müssen uns das und das damit verbundene allgemeine Risiko wirklich nur ansehen und echte Gespräche darüber führen, was das bedeutet und wie wir damit umgehen können, und nicht diese Hyperpolarisierung haben, die ich habe. Ich beginne ein wenig zu sehen und es ist besorgniserregend.

Ja. Das hat mich auch beunruhigt, vor allem die Art von Boshaftigkeit, die in manchen dieser Gespräche zum Ausdruck kommt.

Wald: Hier kann jeder etwas übertreiben. Und ich finde es großartig, dass sich die Leute mit Leidenschaft für ihre Sorgen einsetzen, aber wir müssen konstruktiv sein, wenn wir hier vorankommen wollen. Es ist also etwas, das ich sehr spüre.

Und wenn Sie darüber nachdenken, wie schnell sich die Technologie weiterentwickelt, welche Art von Regulierungsrahmen kann mit diesem Tempo des Wandels Schritt halten oder funktionieren? Ich habe mit einem Informatiker hier in den USA gesprochen, der an der Ausarbeitung des Entwurfs für die AI Bill of Rights beteiligt war und sagte: „Es muss ein Bürgerrechtsrahmen sein, weil dieser sich mehr auf die Auswirkungen auf den Menschen und weniger auf die Technologie selbst konzentriert.“ .“ Er sagte also, dass es eine Excel-Tabelle oder ein neuronales Netzwerk sein kann, das die Arbeit erledigt, aber wenn man sich nur auf die Auswirkungen auf den Menschen konzentriert, ist das eine Möglichkeit, mit der sich ändernden Technologie Schritt zu halten. Aber ja, ich bin nur neugierig auf Ihre Ideen, was auf diese Weise funktionieren würde.

Wald: Ja. Ich bin wirklich froh, dass Sie diese Frage gestellt haben. Ich habe die größere Sorge, dass es für die Regierung unglaublich schwierig sein würde, dies jetzt durchzusetzen, selbst wenn wir morgen die optimalen Vorschriften vorlegen würden, die wirklich ideal wären. Meine Aufgabe besteht darin, mehr Zeit mit politischen Entscheidungsträgern zu verbringen als alles andere. Und wenn ich viel Zeit mit ihnen verbringe, ist das erste, was ich höre: „Ich sehe dieses X-Problem und möchte es mit einer Y-Lösung regulieren.“ Und oft sitze ich da und sage: „Nun, das wird in diesem speziellen Fall eigentlich nicht funktionieren.“ Sie lösen oder lindern nicht den konkreten Schaden, den Sie regulieren möchten.“ Und was meiner Meinung nach zuerst getan werden muss, bevor wir vollständig über Regulierungen nachdenken können, ist, dies mit Investitionen zu verbinden, oder? Wir haben also keine Struktur, die sich wirklich damit befasst, und wenn wir sagen würden: „Okay, wir erlassen einfach ein paar Vorschriften“, befürchte ich, dass wir diese nicht effektiv umsetzen können. Was meine ich also damit? Erstens denke ich, dass wir im Großen und Ganzen eine eher nationale Strategie brauchen. Und Teil dieser nationalen Strategie besteht darin, sicherzustellen, dass die politischen Entscheidungsträger darüber bestmöglich informiert sind. Ich verbringe viel Zeit mit Briefings mit politischen Entscheidungsträgern. Man merkt, dass das Interesse wächst, aber wir brauchen formalisiertere Wege und müssen sicherstellen, dass sie alle Nuancen hier verstehen.

Der zweite Teil davon ist, dass wir Infrastruktur brauchen. Wir brauchen unbedingt ein gewisses Maß an Infrastruktur, das sicherstellt, dass wir eine größere Anzahl an Leuten am Tisch haben. Dazu gehört auch die National AI Research Resource, die mir schon seit einigen Jahren persönlich am Herzen liegt. Der dritte Teil davon ist Talent. Wir müssen Talente rekrutieren. Und das bedeutet, dass wir uns wirklich mit der MINT-Einwanderung befassen und sehen müssen, was wir tun können, denn wir verfügen über zahlreiche Daten, zumindest innerhalb der USA. Der Weg für diejenigen Studenten, die nicht hier bleiben können, die Visa-Hürden sind einfach zu schrecklich. Sie holen ab und fahren zum Beispiel nach Kanada. Wir müssen Programme wie das zwischenstaatliche Personalgesetz ausweiten, die es Menschen, die in der Wissenschaft oder in anderen gemeinnützigen Forschungseinrichtungen tätig sind, ermöglichen, in die Regierung ein- und auszusteigen und die Regierung zu informieren, damit sie sich darüber klarer werden.

Schließlich müssen wir diesen Bereich systematisch regulieren. Und was die Regulierung anbelangt, sehe ich, dass es hier zwei Teile gibt. Erstens gibt es neue, neuartige Vorschriften, die angewendet werden müssen. Und noch einmal, der Transparenzteil wäre einer, bei dem ich mich auf die vorgeschriebene Offenlegung einiger Dinge beziehe. Aber der zweite Teil davon ist, dass es bei den bestehenden Vorschriften eine Menge unwichtiger Früchte gibt. Und es macht mir Mut zu sehen, dass die FTC und das DOJ zumindest einige Erklärungen abgegeben haben, dass wir gegen Sie vorgehen werden, wenn Sie KI für schändliche Zwecke oder betrügerische Praktiken einsetzen oder behaupten, etwas sei KI, obwohl das nicht der Fall ist . Und der Grund, warum ich das für so wichtig halte, liegt darin, dass wir gerade ein Ökosystem gestalten. Und wenn Sie dieses Ökosystem gestalten, müssen Sie wirklich sicherstellen, dass in diesem Ökosystem Vertrauen und Gültigkeit herrschen. Und deshalb bin ich ehrlich gesagt der Meinung, dass FTC und DOJ gegen jeden vorgehen sollten, der dies für betrügerische Praktiken nutzt, damit wir tatsächlich beginnen können, einige dieser Probleme anzugehen. Und im Rahmen dieses gesamten Regimes ist es wahrscheinlicher, dass Sie über die effektivsten Vorschriften verfügen, wenn Sie einige dieser Agenturen entsprechend mit Personal ausstatten können, um dabei zu helfen. Und das ist meiner Meinung nach einer der dringendsten Bereiche. Wenn wir also über Regulierung sprechen, bin ich dafür, aber wir haben es mit der Höhe staatlicher Investitionen gepaart, um es zu untermauern.

Ja. Das wäre meiner Meinung nach ein wirklich guter Schritt, um zu sehen, was bereits abgedeckt ist, bevor wir neue Regeln erlassen.

Wald: Richtig. Rechts. Und es gibt viele bestehende Bereiche, in denen einige dieser Dinge leicht abgedeckt werden können, und es ist ein Kinderspiel, aber ich denke, dass KI den Menschen Angst macht und sie nicht verstehen, wie das zutrifft. Ich bin auch ein großer Befürworter des Bundesdatenschutzgesetzes. Beginnen wir frühzeitig mit der Arbeit, die in diese Systeme ganz am Anfang einfließt.

Reden wir also ein wenig darüber, was auf der Welt vor sich geht. Die Europäische Union schien den ersten Schritt bei der KI-Regulierung zu machen. Sie arbeiten, glaube ich, seit April 2021 am KI-Gesetz, als der erste Vorschlag herausgegeben wurde, und er hat sich durch verschiedene Ausschüsse gewendet, und es wurden Änderungsvorschläge gemacht. Wie ist also der aktuelle Stand des KI-Gesetzes? Was deckt es ab? Und was muss als nächstes passieren, damit daraus ein durchsetzbares Gesetz wird?

Wald: Der nächste Schritt besteht darin, dass Sie die Version des Europäischen Parlaments haben, Sie haben den Rat und Sie haben die Kommission. Und im Wesentlichen müssen sie darauf achten, wie sie zusammengeführt werden und welche Bereiche davon in das eigentliche endgültige Gesetz einfließen. Was den Gesamtzeitplan betrifft, würde ich also sagen, dass wir noch etwa ein weiteres gutes Jahr von der Umsetzung entfernt sind. Ich würde sagen, ein sehr gutes, wenn nicht sogar noch besseres Jahr. Aber was hier interessant ist, ist wiederum das hohe Tempo, das Sie festgestellt haben, und die Veränderung, die sich daraus ergibt. Was also in den Rats- und Kommissionsversionen steht, deckt Stiftungsmodelle nicht in dem Maße ab wie das Europäische Parlament. Und das Europäische Parlament muss sich, weil es etwas später dran war, mit diesem Bereich grundlegender Modelle befassen, der viele weitere Schlüsselaspekte der generativen KI beinhalten wird. Es wird also wirklich interessant sein, was letztendlich hier passiert. Und das ist das Problem einiger dieser sich schnell entwickelnden Technologien. Ich habe kürzlich mit einigen Bundesbeamten darüber gesprochen. Wir haben letztes Jahr eine virtuelle Schulung durchgeführt, bei der einige unserer Stanford-Fakultäten vorbeikamen und diese Videos aufgenommen haben. Sie stehen Tausenden von Bundesbediensteten zur Verfügung. Und sie sind großartig. Sie haben die generative KI kaum berührt. Denn es war letzten Sommer, und niemand hat wirklich angefangen, sich mit den Problemen im Zusammenhang mit generativer KI zu befassen. Offensichtlich wussten sie damals, dass generative KI eine Sache ist. Das sind brillante Fakultätsmitglieder. Aber es war nicht so umfassend oder allgegenwärtig. Und jetzt sind wir hier, und es ist wie das aktuelle Thema. Das Interessante ist also, wie schnell sich die Technologie entwickelt. Und damit komme ich auf meine frühere Frage zurück, warum man wirklich eine Belegschaft braucht, die das alles versteht, damit sie sich schnell anpassen und Änderungen vornehmen kann, die in der Zukunft nötig sein könnten.

Und hat Europa wirklich etwas zu gewinnen, wenn es in diesem Bereich der Vorreiter ist? Ist es nur ein moralischer Gewinn, wenn sie diejenigen sind, die das Regulierungsgespräch begonnen haben?

Wald: Ich denke schon, dass sie einiges gewinnen können. Wenn Sie mich fragen, denke ich, dass ein moralischer Sieg ein großer Sieg ist. Manchmal denke ich, dass Europa diese gute, bewusste Seite sein und den Rest der Welt dazu zwingen kann, über diese Dinge nachzudenken, wie einige Ihrer Zuhörer vielleicht wissen. Es gibt den Brüssel-Effekt. Und für diejenigen, die es nicht wissen, ist der Brüsseler Effekt im Wesentlichen das Konzept, dass Europa einen so großen Marktanteil hat, dass es seine Regeln und Vorschriften durchsetzen kann, die am strengsten sind und zum Vorbild dafür werden Rest der Welt. Daher stützen sich viele Branchen bei ihrer gesamten Art der Verwaltungsvorschriften einfach auf die strengsten Vorschriften, die im Allgemeinen aus Europa stammen. Die Herausforderung für Europa besteht darin, wie viel in die Innovation selbst investiert wird. Sie haben also einen starken Marktanteil, und das ist wirklich wichtig, aber wo Europa auf lange Sicht stehen wird, bleibt noch abzuwarten. Ich möchte sagen, dass ein ehemaliger Teil der EU, das Vereinigte Königreich, hier tatsächlich wirklich sehr interessante Arbeit leistet. Sie sagen fast so viel wie: „Lassen Sie uns ein gewisses Maß an Regulierung einführen und uns die bestehenden Vorschriften ansehen“, aber sie investieren wirklich in die Infrastruktur, um die Tools allgemein bereitzustellen. Die Briten haben also einen Vorschlag für ein Exascale-Computersystem im Wert von 900 Millionen Pfund. Das Vereinigte Königreich versucht also wirklich, dies zu tun. Lassen Sie uns die Innovationsseite verdoppeln und, wo möglich, die Regulierungsseite übernehmen, denn das Vereinigte Königreich möchte sich wirklich als führend sehen. Ich denke, Europa sollte sich so weit wie möglich mit der Förderung eines Umfelds befassen, das das gleiche Maß an Innovation ermöglicht.

Europa schien den Anfang zu machen, aber habe ich Recht mit meiner Annahme, dass die chinesische Regierung möglicherweise am schnellsten vorankommt? Es gab eine Reihe von Vorschriften, die in den letzten Jahren nicht nur vorgeschlagen, sondern meiner Meinung nach auch tatsächlich in Kraft gesetzt wurden.

Wald: Ja. Absolut. Es gibt also den Brüssel-Effekt, aber was passiert jetzt, wenn man den Peking-Effekt hat? Denn im Fall Pekings haben sie einfach keine Marktanteile, aber sie verfügen auch über eine sehr starke Innovationsbasis. Was in China passiert ist, war letztes Jahr, es war ungefähr im März 2022, es wurden einige Vorschriften erlassen, die sich auf Empfehlungssysteme bezogen. Und in einigen Fällen könnten Sie Wiedergutmachung verlangen oder einen Menschen zur Prüfung beauftragen. Es ist schwierig, das gleiche Datenniveau aus China zu erhalten, aber ich bin wirklich daran interessiert, zu sehen, wie dort einige dieser Vorschriften angewendet werden. Denn was mich wirklich fasziniert, ist der Maßstab, oder? Wenn Sie also sagen, dass Sie eine menschliche Überprüfung zulassen, komme ich nicht umhin, an diese Analogie zu denken. Viele Menschen bewerben sich auf eine Stelle, und die meisten Menschen, die sich auf eine Stelle bewerben, glauben, dass sie qualifiziert sind oder ihre Zeit nicht mit der Bewerbung um die Stelle verschwenden werden. Und was passiert, wenn Sie dieses Vorstellungsgespräch nie bekommen, und was passiert, wenn viele Leute dieses Vorstellungsgespräch nicht bekommen und Sie sagen: „Moment mal, ich habe ein Vorstellungsgespräch verdient.“ Warum habe ich keins bekommen? Öffnen Sie die Haube Ihres Systems, damit ich eine menschliche Überprüfung vornehmen kann.“ Ich denke, dass es dafür eine gewisse Legitimität gibt. Die Sorge ist, welches Niveau nicht skaliert werden kann, um diesem Moment gerecht zu werden? Und deshalb schaue ich mir das wirklich an. Sie hatten letztes Jahr auch die Deep-Synthesis-Sache [unverständlich], die im Januar 2023 in Kraft trat und viel Zeit damit verbringt, Deep Fakes zu untersuchen. Und dieses Jahr ging es um generative KI. Es gibt erste Hinweise. Und was dies wirklich zeigt, ist die Sorge des Staates. Also die Volksrepublik China, oder in diesem Fall die Kommunistische Partei, denn sie verweisen zum einen auf die Notwendigkeit sozialer Harmonie und darauf, dass generative KI nicht für Zwecke eingesetzt werden sollte, die diese soziale Harmonie stören. Ich denke also, man kann der chinesischen Regierung die Besorgnis darüber ansehen, was dies für die Regierung selbst bedeuten könnte.

Es ist interessant. Hier in den USA hört man oft Leute, die gegen Regulierungen argumentieren, indem sie sagen: „Wenn wir langsamer werden, wird China schnell vorankommen.“ Aber ich habe das Gefühl, dass das tatsächlich eine falsche Erzählung sein könnte.

Wald: Ja. Allerdings habe ich dazu einen interessanten Punkt. Und ich denke, es bezieht sich auf den letzten Punkt der Empfehlungssysteme und die Möglichkeit einer menschlichen Wiedergutmachung oder einer menschlichen Prüfung dieser. Ich möchte nicht sagen, dass ich nicht für Vorschriften bin. Ich bin ein großer Befürworter von Vorschriften. Aber ich möchte immer sicherstellen, dass wir die richtigen Vorschriften umsetzen, denn oft schaden Vorschriften nicht dem großen Player, sondern dem kleineren Player, weil der Big Player es sich leisten kann, einen Teil dieser Arbeit zu bewältigen. Der andere Teil ist jedoch, dass einige dieser Vorschriften möglicherweise ein Gefühl der falschen Beruhigung hervorrufen, weil sie nicht das lösen, was Sie von ihnen erwarten. Deshalb möchte ich die USA nicht in einem Goldlöckchen-Moment anrufen. Aber wenn man wirklich sehen kann, was die Chinesen in diesem speziellen Bereich tun und wie es funktioniert, und ob es funktionieren wird und es möglicherweise andere Variablen gibt, die eintreten könnten, würde man sagen: „Okay, nun, das würde in China eindeutig funktionieren.“ , aber in den USA konnte es nicht funktionieren.“ Es ist fast wie ein Prüfstand. Wissen Sie, dass man immer sagt, dass die Staaten die Brutstätten der Demokratie seien? Es ist irgendwie interessant, wie die USA sehen können, was in New York passiert. Aber was ist mit dem Einstellungsalgorithmus-Gesetz von New York City passiert? Dann können wir anfangen zu sagen: „Wow, es stellt sich heraus, dass die Regulierung nicht funktioniert. Hier ist eines, das wir hier haben könnten.“ Meine einzige Sorge ist, dass das schnelle Tempo dieser Entwicklung es erforderlich machen könnte, dass wir bald eine Regulierung benötigen.

Rechts. Und in den USA gab es bereits frühere Gesetzesentwürfe auf Bundesebene, die darauf abzielten, KI zu regulieren. Der Algorithmic Accountability Act im letzten Jahr, der so gut wie nirgendwo hinführte. Auf der Straße heißt es nun, dass Senator Chuck Schumer an einem Gesetzesrahmen arbeitet und diesen verbreitet. Erwarten Sie hier in den USA wirklich konkrete Maßnahmen? Glauben Sie, dass es in den kommenden ein, zwei Jahren tatsächlich einen Gesetzentwurf geben und verabschiedet werden wird?

Wald: Schwer zu sagen, würde ich sagen. Was ich zuerst sagen würde ist, dass es eindeutig ist. Ich arbeite seit fast vier Jahren mit politischen Entscheidungsträgern zu diesem speziellen Thema zusammen. Und es ist derzeit eindeutig, dass es seit der Veröffentlichung von ChatGPT ein Erwachen der KI gibt. Früher habe ich versucht, einen Schritt zurückzutreten und zu sagen: „Hey, lass uns darüber reden“, und jetzt kann ich nicht mehr im Entferntesten mit dem Zustrom Schritt halten, der hereinkommt. Deshalb bin ich ermutigt zu sehen, dass die politischen Entscheidungsträger das tun das ernst nehmen. Und ich habe mit zahlreichen politischen Entscheidungsträgern Gespräche geführt, ohne zu verraten, welche, aber ich muss sagen, dass das Büro von Senator Schumer eifrig ist, und ich finde das großartig. Sie arbeiten immer noch an den Details. Ich denke, was an Schumers Büro wichtig ist, ist, dass es ein Büro ist, das viele Senatoren und viele Leute zusammenbringen kann, um sich mit der Sache zu befassen. Und eine Sache, die ich an Schumer wirklich schätze, ist, dass er groß und mutig denkt. Und sein Engagement sagt mir: „Wenn wir etwas bekommen, wird es nicht klein sein.“ Es wird groß gedacht. Es wird wirklich wichtig sein.“ Zu diesem Zweck möchte ich das Amt daher dringend bitten, nicht nur über Vorschriften nachzudenken, sondern auch über die dringende Notwendigkeit öffentlicher Investitionen in KI. Und so müssen diese beiden Dinge nicht unbedingt in einer großen Mega-Rechnung gepaart werden, aber sie sollten bei jedem Schritt, den sie zusammen unternehmen, berücksichtigt werden. Dass Sie für jede Regulierungsidee, über die Sie nachdenken, auch über ein gewisses Maß an öffentlichen Investitionen verfügen sollten, über die Sie nachdenken. Damit wir sicherstellen können, dass wir ein wirklich ausgewogeneres Ökosystem haben.

Ich weiß, dass uns die Zeit knapp wird. Also vielleicht noch eine letzte Frage und dann frage ich, ob ich etwas verpasst habe. Aber zu unserer letzten Frage: Wie könnte ein Verbraucher die Auswirkungen der KI-Vorschriften erleben? Ich habe über die DSGVO in Europa nachgedacht und welche Auswirkungen dies für die Verbraucher hatte, da sie im Grunde jedes Mal, wenn sie eine Website besuchten, auf eine zusätzliche Schaltfläche klicken mussten, um zu sagen: „Ja, ich akzeptiere diese Cookies.“ Wären KI-Vorschriften Ihrer Meinung nach für den Verbraucher sichtbar und würden sie das Leben der Menschen auf offensichtliche Weise verändern? Oder wäre es viel subtiler und hinter den Kulissen?

Wald: Das ist eine tolle Frage. Und ich würde wahrscheinlich noch eine Frage stellen. Die Frage ist: Wie oft sehen Menschen KI in ihrem täglichen Leben? Und ich glaube nicht, dass man so viel davon sieht, aber das heißt nicht, dass es nicht da ist. Das bedeutet nicht, dass es keine Kommunen gibt, die Systeme nutzen, die Leistungen verweigern oder gewähren. Das bedeutet nicht, dass Banken dies nicht für Underwriting-Zwecke nutzen. Es ist also wirklich schwer zu sagen, ob die Verbraucher dies sehen werden, aber ich glaube nicht, dass Verbraucher KI in ihrem täglichen Leben sehen, und das ist auch besorgniserregend. Daher denke ich, dass wir sicherstellen müssen, dass automatisierte Systeme in gewissem Maße offengelegt werden. Und die Menschen sollten darüber informiert werden, wann dies angewendet wird, und sie sollten informiert werden, wenn dies geschieht. Das könnte eine Regelung sein, die sie sehen, oder? Aber im Großen und Ganzen glaube ich nicht, dass es in den Köpfen der Menschen so zentral und zentral ist und kein Problem darstellt, denn das heißt nicht, dass es nicht da ist. Es ist dort. Und wir müssen sicherstellen, dass wir das richtig machen. Werden Menschen während dieses Prozesses geschädigt? Der erste Mann, ich glaube es war im Jahr 2020, [Juan?] Williams, ich glaube, sein Name war der, der fälschlicherweise wegen Gesichtserkennungstechnologie verhaftet wurde und was das für seinen Ruf und all diese Dinge bedeutete, weil er buchstäblich keine Verbindung hatte mit dem Verbrechen.

Bevor wir also loslegen: Gibt es Ihrer Meinung nach noch etwas, das die Menschen über den aktuellen Stand der Diskussion über die Regulierung von KI oder die Technologie selbst unbedingt verstehen sollten? Gibt es etwas, das die politischen Entscheidungsträger, mit denen Sie sprechen, nicht so verstehen, wie Sie es sich gewünscht hätten?

Wald: Die breite Öffentlichkeit sollte sich darüber im Klaren sein, dass das, was wir zu sehen beginnen, nur die Spitze des Eisbergs ist. Ich denke, es gab eine Menge Dinge, die in den Laboren waren, und ich denke, es wird noch viel mehr kommen. Und da noch viel mehr auf uns zukommt, müssen wir meiner Meinung nach Wege finden, an ausgewogenen Argumenten festzuhalten. Gehen wir nicht so weit: „Das wird uns alle umbringen.“ Lassen wir auch keinen Hype zu, der besagt: „KI schafft das schon.“ Deshalb denke ich, dass wir in der Lage sein müssen, neutral zu sagen: „Es gibt einige einzigartige Vorteile, die diese Technologie der Menschheit bieten und einen erheblichen Einfluss zum Besseren haben wird, und das ist eine gute Sache, aber gleichzeitig gibt es sie.“ einige sehr ernste Gefahren daraus. Wie können wir diesen Prozess bewältigen?“

Ich möchte, dass die politischen Entscheidungsträger sich dessen bewusst sind, wenn sie darüber nachdenken und versuchen, sich weiterzubilden: Sie müssen nicht wissen, wie man TensorFlow verwendet. Niemand verlangt von ihnen, dass sie verstehen, wie man ein Modell entwickelt. Was ich ihnen empfehle, ist, dass sie verstehen, was die Technologie kann, was sie nicht kann und welche gesellschaftlichen Auswirkungen sie haben wird. Ich spreche oft mit Leuten: „Ich muss über die tiefgreifenden Aspekte der Technologie Bescheid wissen.“ Nun, wir brauchen auch politische Entscheidungsträger, die politische Entscheidungsträger sind. Und insbesondere müssen gewählte Amtsträger zentimetertief, aber eine Meile breit sein. Sie müssen über soziale Sicherheit Bescheid wissen. Sie müssen über Medicare Bescheid wissen. Sie müssen über auswärtige Angelegenheiten Bescheid wissen. Wir können also nicht erwarten, dass die politischen Entscheidungsträger alles über KI wissen. Aber sie müssen zumindest wissen, was es kann und was nicht und welche Auswirkungen es auf die Gesellschaft haben wird.

Russell, vielen Dank, dass Sie sich heute die Zeit genommen haben, das alles mit mir zu besprechen. Ich schätze es wirklich.

Oh, es ist mir ein Vergnügen. Vielen Dank, dass du mich hast, Eliza.

Das war Russell Wald von Stanford, der mit uns über Bemühungen zur Regulierung von KI auf der ganzen Welt sprach. Ich bin Eliza Strickland und hoffe, dass Sie beim nächsten Mal bei „Fixing the Future“ dabei sein werden.

Willkommen bei Fixing the Future, einem IEEE Spectrum-Podcast. Ich bin die leitende Redakteurin Eliza Strickland und spreche heute mit Russell Wald von der Stanford University über Bemühungen zur Regulierung künstlicher Intelligenz. Bevor wir mit dieser Folge beginnen, möchte ich die Hörer darüber informieren, dass die Kosten für die Mitgliedschaft im IEEE derzeit für den Rest des Jahres um 50 Prozent reduziert sind, sodass Sie Zugang zu Vergünstigungen haben, darunter das Spectrum Magazine sowie jede Menge Bildung und Karriere Ressourcen. Außerdem erhalten Sie einen hervorragenden Zauberwürfel mit IEEE-Logo, wenn Sie online den Code CUBE eingeben. Gehen Sie also zu IEEE.org/join, um loszulegen.