Entrevista com Wolfgang Hoffmann-Riem

Por Paola Cantarini e Willis S. Guerra Filho

BIO

Wolfgang Hoffmann-Riem is affiliate Professor of Law and Innovation at Bucerius Law School, Hamburg. He is Professor Emeritus of Public Law and Public Administration at the University of Hamburg. From 1995 to 1997 he was Head of the Department of Justice (Senator) of the State of Hamburg. From 1999 to 2008 he was a Judge at the German Constitutional Court. His responsibilities as rapporteur included the protection of privacy and data, freedom of expression and information, as well as the inviolability of the home. At the University of Hamburg, he founded the Research Center for Law and Innovation. He was a German member of the Council of Europe’s “European Commission for Democracy through Law” (Venice Commission) (2007-2019).

Versão original

Paola Cantarini/Willis S. Guerra Filho: Könnten Sie uns zunächst Ihr Hauptfachgebiet nennen und danach Ihre derzeitige Arbeit im Bereich der künstlichen Intelligenz (KI) erläutern?

Wolfgang Hoffmann-Riem:Sehr gerne. Ich bin seit Beginn meiner Hochschullehrer Tätigkeit Professor für öffentliches Recht und Verwaltungswissenschaft gewesen, jedenfalls seitdem ich pensioniert, emeritiert bin, lisse ich. Im Kontext der Bucerius Law School in Hamburg und dort widme ich mich insbesondere den Fragen der Innovation und der Verhinderung oder Ermöglichung von Innovation.
Das habe ich schon länger getan, jetzt immer mehr konzentriert auf das Thema der digitalen Transformation und damit den Umgang mit den neuen Technologien, ihrem Möglichkeiten, aber auch ihren Schwierigkeiten.
Ich habe dafür 2 Begriffe. Ersten der eine ist im Bereich von Innovationen, muss man Innovations Ermöglichung schaffen, also die staatliche Aufgabe ist etwa mitzuhelfen, dass Innovationen auch wirklich möglich werden, aber nicht Innovationen jeder Art,
sondern solche, die auch gesellschaftliche und individuelle verantwortlich sind.
Deswegen ist der zweite Begriff jener der Innovations Verantwortung und in diesem Polen versuche ich insbesondere die Rolle von Recht zu analysieren und stelle dabei fest, Recht im Grunde der technologischen Entwicklung der Digitalisierung hinterher hängt, also nicht treibend ist oder positiv unterstützen wird, sondern eher Risiko, Affären, wenn überhaupt und insofern in einer nachgeordneten Rolle einzustellen ist.
Dazu habe ich mein letztes Buch geschrieben, das den Titel Recht und digitalen Transformation bekommen hat. Ich weiß nicht, ob Sie das lesen können, wahrscheinlich, da dieses Buch auch ins Portugiesische und Spanische
übersetzt worden ist, sodass auch eine internationale Aufmerksamkeit gefunden hat.
Das freut mich natürlich, insofern denke ich, dass wir auch als Wissenschaftler uns bemühen müssen, über den transnationalen Dialog auch wechselseitig voneinander zu lernen und gleichzeitig Anstöße zu geben, sodass die Dinge besser gemacht werden können als bisher.
Dankeschön, danke sehr, dann gehen wir zum nächsten.

Paola Cantarini/Willis S. Guerra Filho: Besteht Ihrer Meinung nach die Notwendigkeit und damit auch die Möglichkeit eines weltweiten Gesetzes, das darauf abzielt, KI auf globaler Basis zu regeln, selbst unter fehlenden globalen Bedingungen, auch wenn es nur Mindeststandards setzt?

Wolfgang Hoffmann-Riem: Ja, danke für diese wichtige Frage. Ich möchte sie in 2 verschiedenen Aspekten behandeln. Das erste ist die Frage, ob und wie weit Regulierung in sinnvoller Weise überhaupt möglich ist. Und die zweite Frage ist, ob es nicht zu erwarten ist, dass sich andere Staaten oder gar die ganze Welt darauf verständigen, nach einheitlichen Regeln vorzugehen. Die erste Frage ist deshalb für mich vorrangig, weil ich nicht glaube, dass die traditionellen Regelungskonzepte, die wir in unseren Gesellschaften und Rechtsordnungen entwickelt haben so passen auch für die Zeit der digitalen Transformation, einschließlich natürlich der Behandlung von Künstlicher Intelligenz. Die Probleme entstehen daraus, dass wir es mit einer ungeheuren Komplexität verschiedener miteinander verbundener Faktoren zu tun haben. Diese Komplexität entsteht auch daraus, dass wir hier nicht nur eine technologische Transformation erleben, sondern sie bewirkt soziale Transformation, sie wirkt in praktisch alle gesellschaftlichen Bereiche, auch die individuellen Verhaltens möglich ein, und damit ist diese Komplexität natürlich mit ganz vielen Zielvorgaben und auch unterschiedlichen Interessen gefüllt. Ein weiterer Punkt betrifft die Art, die jetzt maßgebend wird, nämlich die Entstofflichten von Daten und Algorithmen bedeutet, dass Regeln, die gewissermaßen sichtbare, greifbare Gegenstände vor sich haben, nicht unbedingt passen müssen, weil eben hier eine virtuelle Welt hinzutritt.
Das weitere ist, dass wir Entgrenzung erleben und zwar nicht nur in internationaler, transnationaler Hinsicht, sondern auch zwischen den vielen verschiedenen gesellschaftlichen Betätigungsfeldern.
Es rutschen viele Sachen zusammen, die bisher nicht zusammen waren, nämlich
einerseits die virtuelle Welt und andererseits die physikalische, die physische
Welt, die beiden sind nicht unbedingt miteinander leicht kompatibel.
Die Globalisierung als nächstes Thema führt zu einer Transnationalisierung nicht nur
der Probleme, sondern auch der Lösungsbedürftigkeit und damit füt mögliche Regeln.
Und dabei sind wir schon bei der Frage der Regulierbarkeit. Ich gehe aber noch nicht direkt darauf ein. Diese Regulierbarkeit wird auch dadurch gefährdet, weil es so massive Macht Asymmetrien gibt im Verhältnis von den großen Unternehmen, etwa der Social Media und uns Nutzern und Nutzerinnen, aber natürlich auch im Verhältnis zu anderen Akteuren und vor allem auch der Staatlichkeit.
Wir haben Machtasymmetrien eben im unternehmerischen Bereich, im politischen Bereich und vermutlich ausgedehnt in viele weitere Felder.
Dies wiederum ist Verkoppelt mit der begrenzten Vorhersehbarkeit der weiteren Entwicklung. Dadurch haben etwa Machtträger jetziger Art mehr Chancen, Einfluss zu nehmen als solche, die nicht zu tiefe Einblicke in die Entwicklungen und deren Möglichkeiten haben.
Die begrenzte Vorhersehbarkeit führt zu einer begrenzten Kontrollierbarkeit.
Und es ist natürlich damit gekoppelt, dass es für andere, die Nutzer, die privaten Nutzer sowieso, aber selbst technisch Experten oder Aufsichtsinstanzen schwer ist, Dinge nachzuvollziehen, etwa die Art der Programmierung, die Art der Trainingsprogramme, die Art der verwendeten Daten und so weiter.
Wenn die Nutzung dieser Technologien zu möglichen Nachteilen zu Schäden führt,
taucht die Frage der Haftung aus.
Aber wer haftet von den vielen Akteuren, ob auch die Algorithmen selbst gewissermaßen in Haftung zu nehmen sind, oder sind das nur Menschen.
Und dann kommt als letztes, selbst wenn Dinge laufen gelassen worden sind,
und sich dann herausstellt, dass doch die Risiken zu groß sind. Wie sieht es mit der Revidierbarkeit aus, ist wirklich alles revidierbar, was hier entsteht? das sind Probleme genereller Art und diese Strahlen natürlich hinein in das Problemfeld 2, also die Frage, wie weit es aussichtsreich ist, dass sich die verschiedenen Staaten oder die überall tätigen Unternehmen darauf verständigen, dass es Regeln geben muss, und da spielt natürlich auch eine Rolle, dass es Regeln gibt.
Im Grunde vor dem jeweiligen kulturellen und politischen Hintergrund eines Staates
oder eines Unternehmens
geschaffen werden sind. Die im weitesten Sinne kulturellen Orientierungen sind aber nicht weltweit gleich, auch für die Werte, für die alle stehen und für die ich stehe, nämlich Rechtsstaatlichkeit, Demokratie, sozialstaatlichkeit, sind nicht weltweit gleich geteilt, wenn man sich verständigen will, etwa auch Freiheitsschutz, auch im Hinblick auf künstliche Intelligenz, sowohl für deren Nutzung als auch Freiheit bei
Belastungen für die Nutzer. Dann tauchen hier Divergenzen auf, diese erheblich
erschweren, zu umfassenden Regelungen zu kommen.
Immerhin gibt es Möglichkeiten in den großen Machtblöcken jeweils eigene Regeln
zu machen, etwa in dem US amerikanischen Feld, auch die Chinesen sind sehr massiv tätig und die Europäische Union ebenso. Ich weiß, dass auch bei ihnen in Brasilien und generell im globalen Süden die Problembewusstsein sehr stark entwickelt worden ist und dass sie auch an solchen Dingen massiv arbeiten.
Dabei glaube ich, dass wir insoweit von der europäischen Seite mit ihnen auch weitgehend von einem Wertekonsens ausgehen können, aber der ist eben nicht überall geteilt.
Insofern muss man versuchen, vorsichtig vorzugehen.
Und wenn Sie sich Regeln, Vorschläge, die es jetzt zum Beispiel gibt, etwa die brasilianische Strategie für künstliche Intelligenz, die ich mir gründlich angesehen habe, die meine ich eine sehr gute Analyse ist, und die strategischen Vorstellungen, die dort entwickelt sind, sicherlich auch weittragend zu sehen ist.
Aber vieles ist auch durch große Wünschbarkeit geprägt, und die Machbarkeit
muss sich erst erweisen, und deswegen ist es nicht zufällig.
Dass jetzt beziehe ich mich nicht auf Brasilien allein, da in den verschiedenen Rechtsbereichen die Rechtsordnungen oder gar grundsätzlichen Gemeinschaften

geopolitischer Art unterschiedliche Auffassungen, die  nicht sofort in hartes Recht überführt werden können. Das bringt ja auch so nichts, sondern dass man viel mit weichem Recht (Soft Law) arbeitet, also Empfehlungen, Wertvorstellungen, ethische Vorgaben, nur die sind weniger leicht
umsetzbar, wenn die Betroffenen sich ihnen nicht beugen.
Wir haben also hier eine Fortsetzung des Problems der Vielfältigkeit, der
Komplexität und die sich meine ich eher dann
verwirklichen lässt, wenn zunächst die großen Räume versuchen, zu Regelungen zu kommen.
Jetzt beziehe ich mich auf die Europäische Union, die ja das
Ziel verfolgt, durch die jetzt geplanten Vorhaben. Sie kennen die
Gesetze, das nur als Entwurf vorliegt, zur künstlichen Intelligenz.
Schön Markets Act Digital Services Act, das sind auch versuche, jedenfalls
im europäischen Bereich eine möglichst einheitliche Regelung zu haben und
dadurch möglicherweise die großen Unternehmen, also auch die Social Media
Giganten, zu veranlassen, sich auf diese Regeln einzulassen.
Die EU schreibt jetzt weitgehend immer vor, was in Europa im EU Bereich
man Regelungen und Vorgaben erfolgt, muss sich richten nach denen im
EU Bereich geltenden Regelungen.
Das ist natürlich zunächst mal ein Wunschdenken und wir wissen, dass
die großen Giganten, die globalen Akteure, dass sie versuchen dem
weitgehend auszuweichen, aber es wäre denkbar, dass durch solch eine
Möglichkeit einen gesamten Markt dieser Größenordnung, der ja auch wirtschaftlich
hochinteressant ist, als Orientierungspunkt für Regelungen zu nehmen.
Was aber nach meiner Meinung nur sinnvoll ist, wenn dabei Rücksicht
genommen wird auf das, was in anderen großen Regelungsbereichen passiert.
Und es muss beispielsweise mit dem US amerikanischen Bereich abgestimmt sein,
das ist nicht ganz einfach, aber auch dort bewegen sich
die Dinge, was die Regulierbarkeit und die Notwendigkeit von Regulierungen
anbelangt, und es muss natürlich auch mit ihrem Land und
anderen großen Ländern abgestimmt sein, damit hier jetzt nicht eine neue Kolonialisierung stattfindet, sondern dass man versucht, einen einheitlichen Rahmen zu finden.
Das wird aber zunächst nur gehen, wenn es relativ unverbindlich bleibt
und man kann hoffen, dass dadurch Erfahrungen gewonnen werden, die
später genutzt werden können, um das Soft Law in Hard Law umzupolen.

Paola Cantarini/Willis S. Guerra Filho: Wie würde der sogenannte “Trade-off” zwischen Innovation und Regulierung ablaufen? Oder würde die Regulierung allein die Innovation verhindern oder den internationalen Wettbewerb gefährden? Nach Ansicht von Daniel SOLOVE, in seinen Buch „Nothing to hide. The false tradeoff between privacy and security“ (Yale University Press, 2011), wäre dies ein Irrglaube. Könnten Sie sich zu diesem Punkt äußern?

Wolfgang Hoffmann-Riem: Obwohl ich nicht weiß, ob ich eine befriedigende Antwort finde. Ich komme noch mal zurück auf meine beiden Pole, der Innovationsoffenheit und der Innovations Verantwortung. Ich glaube, die Zukunft wird nur sinnvoll gestaltet, wenn beide Pole Recht einbezogen werden und aufeinander so abgestimmt werden, dass die
Probleme nicht größer, sondern eher erleichtert werden. Das bedeutet, man muss die Vorteile sehen, die sich etwa mit der digitalen Transformation unter Einschluss der künstliche Intelligenz ergeben. Verbunden sind oder sein können aber eben auch die Risiken.
Und insofern muss man zu einem Ausgleich kommen. Es reicht nicht, einen allein risikobasierten Ansatz zu wählen, der etwa in der im Bereich der EU stark präferiert wird Man muss auch dafür sorgen können, dass die Infrastrukturen insgesamt den Freiheitsbedürfnissen oder Handlungsbedürfnis in unterschiedliche Akteure gerecht werden.
Also das reicht nicht,
wenn sie den Großen gegangen, den Globalisierungs Giganten, zur Verfügung stehen
und von ihnen beeinflusst werden. Es muss dafür gesorgt werden, dass ihre Funktionsfähigkeit auch im Hinblick auf die Nutzerinnen und Nutzer, also uns Bürger oder kleinere Unternehmen und so weiter geöffnet werden.
Ich kann das jetzt nicht in konkreten Vorstellungen niederschreiben, ich versuche
jedenfalls, soweit ich um Rat gebeten werde oder mich in der wissenschaftlichen Diskussion beteilige dafür zu sorgen, dass eben diese beiden Pole im Blick
bleiben und dass insofern einerseits Regelungen stattfinden, dass andererseits des
der Typ, der jetzt vorherrscht, einer regulierten Selbstregulierung, also die
Unternehmen sind im Wesentlichen zur Selbstregulierung berechtigt, in den meisten
Bereichen und haben dies auch nicht immer im Interesse des Gemeinwohls genutzt.
Deswegen gibt es versuche, staatlicherseits in Europa, etwa der Europäischen Union, hier doch auch Grenzen zu setzen und eben die Selbstregulierung Regulativ
zu umhegen dann wird es sicherlich auch notwendig sein, dass die Öffentlichkeit, die NGOS, aber auch andere Akteure sich an diesen Diskursen beteiligen und die Interessen der Nutzer und Nutzerinnen einbringen. Und das ist insofern eine Kombination geben mag zwischen Dingen, die etwa zur Risikoabwehr bei Hochrisiko
Feldern stattfinden. Dort kann es dann auch eine imperative Regulierung geben, aber in
anderen Bereichen muss eine Ermöglichende aber wie ich immer gerne
sage, eingelegte Regulierung geben, also eine Regulierung, die den Grundwerten
von Demokratie, Rechtsstaat und Sozialstaatlichkeit gerecht werden und auch einsehen
und berücksichtigen, dass hier nicht Machtträger betroffen sein können, die sich nicht allein wehren können, so dass sie auf die
Hilfe von regulatorischen Instanzen angewiesen sind. Bei der Selbstregulierung gibt es jetzt schon eine Reihe von Versuchen, etwa zur Schaffung von Codes of Conduct oder zur Forderung ethischen Verhaltens oder der des Relations by Design, also die
eine Programmierung von Vorgaben in die informationstechnischen Systeme, die eben
dies abgewogene Ergebnis erleichtern sollen.
Das gibt es alles schon, aber es ist noch nicht weitreichend genug
umgesetzt als Bereich, der die Welt gewissermaßen global erfassen kann.
Aber es muss viel noch versucht werden und dann hoffentlich globale Diskurse stattfinden, die es ermöglichen, möglichst viel davon in eine transnationale Verbindlichkeit zu bringen.

Paola Cantarini/Willis S. Guerra Filho: Nehmen wir als paradigmatisches Beispiel im Bereich des Datenschutzes der Bewertung des berechtigten Interesses (LIA), die in der LGPD (Brazil) und der GDPR der Europäischen Union als obligatorisches Dokument der
bei der Verwendung der Rechtsgrundlage für die Verarbeitung personenbezogener Daten, nämlich des berechtigten legitimes Interesse, z. B. bei einer Analyse o. Verhältnismäßigkeitsprüfung, wäre es Ihrer Meinung nach möglich, einen
Rahmen für den Schutz der in einem bestimmten Dokument verankerten Grundrechte in einem spezifischen Dokument, dem AIIA – Algorithmic Impact Assessment das algorithmische Folgenabschätzung? Dies in dem Sinne, dass festgestellt wird, nach einer Analyse durch Abwägung, Maßnahmen zur Abschwächung der Risiken für diese Rechte, die angemessen, notwendig und
verhältnismäßig im engeren Sinne sind.

Wolfgang Hoffmann-Riem: Ja, das ist eine schwierige Aufgabe, die aber natürlich nicht nur in dem von uns behandelten Bereich wichtig ist.
Die Frage, wie zwischen verschiedenen Interessen abgewogen wird und welchen Interessen Vorrang gebührt oder Nachrang, das taucht in fast allen Bereichen auf.
In Deutschland hat es darüber auch ewig Diskussionen gegeben, und inzwischen
gibt es eine Art Konsens darüber, dass eine Formel, die der frühere Professor und Verfassungsrichter Konrad Hesse formuliert hat, dass die ein Stück deutlicher macht, was gemeint ist.
Er spricht nicht davon, dass man zu einem entweder oder kommt, sondern man muss das sowohl als auch im Sinne praktischer Konkordanz lösen, also die praktische Lösung ist das Entscheidende, die aber eben Konkordanz, also nebeneinander bestehen oder verwoben seien von unterschiedlichen Interessen abzuwägen, Interessen herausfordern, das ist zunächst nur eine abstrakte Formel, aber sie sollen deutlich machen,
dass es hier nicht zwingend um ein entweder oder geht, sondern um eine abwägende Konkretisierung, die eben den verschiedenen gesellschaftlichen oder individuellen Interessen auch Rechnung trägt.
Dabei stellen sich in Zeiten der Digitalisierung die Probleme, ob und
wie weit durch algorithmische Steuerung dies angemessen geschehen kann, ob
und wie weit solche Abwägungen in der Komplexität, wie wir
sie bisher gewohnt sind, auch bei der algorithmischen Steuerung denkbar
sind. Das ist deshalb erschwert, weil ja nicht alles, was Algorithmen können, vergleichbar ist mit dem, was Menschen können.
Umgekehrt können Menschen nicht alles, was Algorithmen können, aber
spielt bei wertenden Abwägungen von Konflikten etwa eine Rolle.
Welches implizite, also gar nicht ausgesprochene Wissen hinter bestimmten Regelungsvorschlägen steht?
Algorithmen können kein Implizites Wissen verarbeiten, sondern nur wissen, dass in
Sprache oder in Zahlen ausgedrückt werden kann.
Es geht häufig auch um die die Einbeziehung von Emotionalität und
anderen Werten, die sehr schwer algorithmisch Entwickelbar sind.
Man kann Emotionalität natürlich auch imitieren, aber es macht einen Unterschied,
ob sie im Menschen angelegt sind.
Also wenn die Menschen orientierte Perspektive verfolgen oder ob sie durch
die Beengungen der algorithmischen Techniken dies vielleicht nicht optimal leisten
oder ein anderer Punkt, der insbesondere eine Rolle spielt, soweit
konkrete Personen betroffen sind.
Bei jetzigem Handeln, etwa der Anwendung von Recht, spielen auch emotionale
Aspekte eine Rolle.
Algorithmen können emotional Emotionen dieser Art nicht selbst entwickeln, sie können
sie auch wieder nur imitieren.
Dafür haben natürlich Algorithmen auch mehr Möglichkeiten als Menschen in ihrer
Erfassung von umfassenden, komplexen und der Sicherung von Effizienz und
so weiter erreichen. Das will ich gar nicht ausschließen, ich will nur sagen.
Dass es nicht einfach ist, dieses Ziel, das sie angesprochen haben,
in der Weise, die bisher durch den Umgang mit Rechtsnormen
durch Menschen erfolgt ist, zu transferieren in den Bereichen algorithmischer
Steuerung, das wird möglicherweise immer besser gelingen.
Aber man muss aufpassen, dass hier nicht Dinge, die für mich
jedenfalls wichtig sind, nämlich die Menschlichkeit des Eingehens auf Probleme,
Konflikte und deren Lösung verloren gehen.


Paola Cantarini/Willis S. Guerra Filho: Was ist unter KI-Governance zu verstehen? Welche Beziehung sehen Sie
zwischen Innovation, Technologie und Recht?

Wolfgang Hoffmann-Riem: Das ist eine allgemeine Frage, die im Grunde nur in den
konkreten Anwendungsfällen behandelt werden kann.
Jedenfalls kann man sie auch natürlich in einem anderen Kontext bringen,
und das ist ja der Governance Kontext.
Es gibt viele Diskussionen darüber, dass man sich nicht nur mit
dem, was einer Regelung befassen soll, sondern auch dem wie,
wie passiert, etwas, was sind die politischen, die gesellschaftspolitischen, ökonomischen
und technologischen Koordination von Steuerung durch Recht.
Die weitere Frage ist, wie weit spielen Governance Modi wie Markt,
Wettbewerb, Hierarchie, Verhandlung, Netzwerk eine Rolle und wie weit werden
sie auch bei algorithmischer Steuerung wichtig sein.
Denn inzwischen ist die algorithmische Steuerung in eigener Governance Faktor geworden, sodass wir also auch eine Ausweitung der Rahmenbedingungen haben und
da diese Rahmenbedingungen extrem komplex sind, fällt es mir schwer,
eine einfache Antwort zu geben.
Ich kann nur darauf hinweisen, dass wir hier bei algorithmischer Steuerung ein Problem haben, dass weiter reicht und vielleicht
komplexer ist, als wir es bisher uns angewöhnt haben.
Das andere ist natürlich noch die Frage, nicht der Governance bei
Algorithm, also durch Algorithmen, sondern von Algorithmen.
Wie entstehen Algorithmen, wie werden sie programmiert werden, nimmt daran teil,
welche Verfahren gelten dort und ist es beispielsweise so, dass
selbst Algorithmen, die für Rechtsanwendung genutzt werden, häufig für Nichtjuristen programmiert werden.
Die Juristen haben nicht alle diese Kompetenzen, das selber zu können,
also muss man auch sich das Verfahren, die Organisation der algorithmischen
Steuerung bei der Schaffung von Algorithmen schon ansehen und nicht nur
bei ihrer Anwendung oder bei der möglichen Korrektur von Ergebnissen.


Paola Cantarini/Willis S. Guerra Filho:  Ja, und jetzt haben wir eine sozusagen interkulturelle Frage.
Das ist unsere vorletzte Frage.
Auf der diesjährigen Architekturbiennale von Venedig (2023) ist das Thema des brasilianischen Pavillons die Erde und die Abstammung, d.h. die Dekolonisierung
bzw. Entkolonialisierung (“De-colonising the canon”, Pavillon “Terra”). Ist es möglich, einer solchen kolonialistischen Logik zu entkommen, die auch in den Bereichen KI/Daten anwesen ist?

Wolfgang Hoffmann-Riem:  Ja, sie werden erinnern, dass ich das Wort Kolonialisierung schon in
anderem Kontext vorhin benutzt habe und darauf hingewiesen habe, dass
es insofern nicht nur um die klassische Kolonialisierung durch Staaten,
die zum Beispiel Brasilien zur Kolonie machen oder gemacht haben,
jedenfalls geht, sondern dass wir hier das generelle Problem haben von Machtasymmetrien, und ich denke nicht, dass das in einem umfassenden Sinne
Bewältigt werden kann.
Ich kann nur sagen, es ist wichtig, dass man auch beim
Umgang mit künstlicher Intelligenz oder generell mit Algorithmen aller Art,
dass man diese Machtasymmetrien im Blick behält und möglichst
Macht reduzierend tätig wird, also mit anderen Worten, es geht
beispielsweise darum, wieFreiheitsrechte gesichert werden sollen, dies so zu machen, dass eben praktischer Konkordanz zwischen den verschiedenen Freiheitsmöglichkeiten der Unternehmen einerseits, der Nutzer andererseits der Staaten andererseits entstehen.
Das weitere Problem ist bisherige Kolonialisierung, nicht die, die in Venedig
jetzt thematisiert worden ist, waren eben im Wesentlichen einerseits Staaten
oder deren Akteure und andererseits die betroffenen Gebiete, die meist
in einer Lage überfallen wurden, in der sie sich gar
nicht gegen die Kolonialisierung wehren konnten und es auch häufig nicht geschafft haben, bis heute, sich dem voll zu entziehen.
Ich sage aber nochmal, das ist jetzt nicht mehr nur ein Problem dieser geopolitischen Orientierung, sondern es ist ein Problem, das sich in
allen Gesellschaften stellt.
Wir haben überall das Problem von strukturellen Unausgewogenheiten und der Notwendigkeit dazu vorzusorgen, und ich denke, dass KI dafür schon genutzt werden kann, das macht sich nicht hemmungslos ausbreitet und immer bestehen bleibt, sondern dass es praktische Konkordanz zwischen verschiedenen Interessen gibt.

Paola Cantarini/Willis S. Guerra Filho: Welches sind die größten Herausforderungen, vor denen die Weiterentwicklung der KI derzeit steht? Und ich frage in Anbetracht der Kontroverse mit ChatGPT und dem “Moratorium”, das in einem Brief/Manifest plädiert, das von Elon Musk und anderen Personlichkeiten unterzeichnet wurde. 

Wolfgang Hoffmann-Riem: Ja, das ist eine interessante Entwicklung.
Der ChatGPT hat ja unser Denken weitgehend fasziniert
in der letzten Zeit, im Positiven wie im negativen Sinne und die Möglichkeiten hier steuernd so einzugreifen, dass wir alle uns gerecht behandelt fühlen können, ist nicht dadurch gesichert, dass man einen einen Hinausschob verlangt, abgesehen davon, dass ich den Eindruck habe, dass dieses Moratorium
selbst von denen, die diese dieses Papier unterschrieben haben, in ihren
eigenen Firmen jedenfalls nicht sichtbar befolgt wird.
Es geht also darin, sicherlich ist es sinnvoll, mal einzuhalten und möglichst
nachzudenken und gemeinsam Regelungen zu ringen, aber angesichts der Vielfältigkeit
der betroffenen Interessen und so weiter ist es unwahrscheinlich, dass
man alle dazu bringen wird, es wird also weiterentwickelt werden
und es ist wichtig, dass man jetzt nicht nur Appelle an Zurückhaltung für eine gewisse Zeit äußert, sondern dass man versucht, Appelle an einen fairen Interessenausgleich im gesamten Bereich befolgt zu suchen. Und das ist aber schwierig, in das Spiel nicht Schwierigkeiten hineinzubringen, die ich schon erwähnt habe, etwa die Intransparenzen der Programmcodes der eigenen Lernvorgänge in den Systemen der fehlenden Kontrollierbarkeit, dann die Manipulationspotenziale, die strukturellen Verzerrungen, die Fälschungen von Videos oder Audios
und die Schaffung von Deep Fakes, dann die Möglichkeiten der sprach
Imitation und der Hinterlegung von Sprache bei einer Person, die
diese Sprache zwar phonetisch befolgt hat, aber inhaltlich nie gesagt
hat und und das weitere ist der Umgang mit Cyberattacken,
das kann alles gestärkt werden durch die künstliche Intelligenz, und ich weiß nicht, ob dafür auch noch nutzbar werden wird, hoffentlich zur Abwehr jedenfalls, ich weiß das alles.
Nicht dann eigentlich schon angesprochen habe.
Fragen der Haftung Wir sind jetzt hier in einem Themenfeld, das
dringend einer Regulierung meine ich bedarf, dazu gibt es erste
Ansätze, auch die das Europäische Parlament hat in seiner Novellierungsvorschlägen
zu der zu dem europäischen aktiver künstliche Intelligenz beispielsweise gefordert,
dass man hier deutliche Vorkehrungen speziell für ChatGPT
vorsehen soll.
Allerdings haben sich diese Vorschläge weitgehend begrenzt auf rechtzeitige Informationen etwa an Betroffene, das hier, für die ein bestimmtes Dokument
 genutzt worden ist.
Ich glaube, das reicht nicht, man kann die Verantwortung nicht auf die Nutzer abwälzen, die können, selbst wenn sie informiert würden, was dort alles technisch geschehen ist, im seltensten Fällen das nachvollziehen, und wenn sie es nachvollzogen haben, dafür sorgen, dass es abgeschafft wird.
Wir haben ein ähnliches Problem schon im Datenschutz erlebt, dass nämlich die Einwilligung, die von den Nutzerinnen und Nutzern gefordert wurde, im Grunde wenig.
In der Rechtsstellung der Betroffenen ändert viele sind darauf angewiesen, das
Netz zu benutzen und ihre persönlichen Daten gefährden zu lassen.
Da kann man nicht an die Nutzer allein appellieren, die Nutzer
können viele Sachen mit Recht nicht nachvollziehen, sie brauchen Anderer helfen.
Ich denke etwa, dass Aufsichtsinstanzen viel wichtiger sind und das ist
auch eine Möglichkeit geben sollte es Nutzer, wenn sie solche
Informationen bekommen, jetzt wieder das irgendwann ein Dokument.
Mit dessen Hilfe geschaffen worden ist und sie das gerne aufklären
möchten, dass, wenn sie Aufklärung verlangen, ist eine andere Instanz
eine sachkundige Instanz gibt, die das überprüft.
Wie gesagt, das kann man den privaten Nutzern, man kann es
auch mir nicht übertragen, ich kann das nicht und ich
will es auch gar nicht können, weil das mich einfach
überfordern würde und das geht, meine ich den meisten so,
also hier geht es darum, auch Regulatorisch für Voraussetzungen der Kontrollierbarkeit zu sorgen, zu Möglichkeiten sich Rechtsschutz zu verschaffen, ohne gleich an die Gerichte zu gehen, sondern durch eine sachkundige
Instanz überprüfen zu lassen, ob bestimmte Dinge hinnehmbar sind oder nicht.
Aber das ist eine generelle Forderung, die Sicherheit bei ChatGPT neue
Dimensionen bekommen hat, die im Bereich der
digitalen Transformation ein Grundsatz Problem darstellt.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top