Über „Künstliche Intelligenz“ sprechen boomt. Zwar hat sich trotz jahrelanger Diskussion in den Informatikwissenschaften noch keine einheitliche Definition gebildet – das hindert jedoch nicht. Spätestens in diesem Jahr dürfte das Thema endgültig auch in der Breite im juristischen Diskurs angekommen sein, was allein durch die in diesem Blog aufgelisteten Veranstaltungen deutlich wird.
Aber auch Publikumsmedien thematisieren verstärkt KI – leider oft primär aus einem von Bedenken geprägten Blickwinkel.
Am 5. April 2019 fand die 2. Tagung der Robotics & AI Law Society (RAILS) in Berlin statt – Thema: „Governance of AI and Robotics: A European Approach?“. Dem Titel konnte bereits entnommen werden: hier geht es um „das große Ganze“. Der Schwerpunkt liegt nicht auf einzelnen Rechtsgebieten – wobei insbesondere das Datenschutz-, Urheber- und Produkthaftungsrecht ausreichend Ansatzpunkte bieten würden – sondern auf der Beherrschung und Regulierung von KI.
„Regulation Initiatives – by whom and how?“.
So startete dann auch das erste Panel: „Regulation Initiatives – by whom and how?“.
Zunächst wurde von Dr. Markus Dicks als Vertreter des Bundesministeriums für Arbeit und Soziales die KI-Strategie der Bundesregierung präsentiert. Im Hinblick auf die Regulierung von KI stellte er als zentral heraus, dass der Wettbewerb mit anderen Industrienationen – namentlich China und den USA – nicht nur einen Wettbewerb um die beste Technologie darstellt, sondern gerade auch um die Art und Weise der Nutzung von KI.
Darauffolgend referierte Prof. Dr. Virginia Dignum sowohl die Arbeit der High-Level Expert Group (HLEG) on AI der Europäischen Kommission, als auch ihre eigene Forschungsarbeit („Self-Regulation as an Alternative“).
Die HLEG sieht als zentrales Ziel die Entwicklung von „Trustworthy AI“ an. Dabei sollen nicht nur ethische Grundsätze von der Entwicklung an berücksichtigt werden, sondern die KI soll auch „lawful“ und „robust“ ausgestaltet werden. „Robust“ ist dabei sowohl von einer technischen, als auch einer sozialen Perspektive gemeint. Die zum Zeitpunkt der Tagung noch nicht veröffentlichten „Ethics Guidelines for Trustworthy AI“ der HLEG sind inzwischen hier abrufbar.
Ramak Molavi Vasse’i (iRights Lab) warf sodann die Frage auf, wie ein Algorithmus entwickelt werden sollte, damit er überhaupt regulierbar sein kann. Ihre Antwort: Algo.Rules – 9 Regeln für die Gestaltung algorithmischer Systeme. In der folgenden Diskussion des Panels wurde insbesondere die Regel „Beherrschbarkeit absichern“ kritisch hinterfragt. Die Algo.Rules sehen vor, dass besonders bei selbstlernenden Systemen die Arbeitsweise eines Systems niemals so komplex und undurchschaubar werden darf, dass es von Menschen nicht mehr geändert werden kann oder nicht mehr beherrschbar ist („If you can’t manage the system, maybe you should not use it“). Dagegen wurde primär eingewandt, dass dies ein zu idealistischer Ansatzpunkt sei und bereits heute in der Praxis in der Regel nicht erfüllt wäre.
European Liability Law
Das zweite Panel behandelte den Themenkomplex European Liability Law.
Zunächst gab Prof. Dr. tech. Wolfgang Nejdl („Artificial Intelligence – On Bias and Interpretability“) einen eindrucksvollen Einblick, was genau KI lernt (Spoiler: nicht Fakten über die Realität, sondern Fakten über die Trainingsdaten) und welche Probleme sich daraus ergeben können. Mit Beispielen von „getting fooled by irrelevant hints“ bis Adversarial Machine Learning bei der Bilderkennung durch kleinere Veränderungen in den Bildern und einer kürzlich veröffentlichten Security-Studie über den Tesla Autopilot wurden überblicksartig die aktuellen Grenzen der technischen Entwicklung und die Problematik des Trainings mit unausgewogenen Datensätzen dargestellt.
Prof. Dr. Gerald Spindler zeigte sodann die Anwendungsbereiche und die aus seiner Sicht notwendige Umgestaltung der Product Liability Directive auf. Zudem warf er interessante Fragestellungen auf: Was stellt bei KI einen Mangel dar? Welchem Maßstab sollte ein solcher Mangelbegriff unterworfen sein? Wie könnte ein Lieferant von Trainingsdaten für mangelhafte Datensätze haften?
Perspektivisch schlug Spindler einen Wechsel zu (gedeckelter) verschuldensunabhängiger Haftung für IT-Systeme vor, für verbleibende Beweisprobleme könne „Documentation by Design“ (vergleichbar mit Blackboxes in Flugzeugen) eine praktikable Lösung darstellen.
Algorithmic Discrimination and Manipulation
Das dritte Panel befasste sich mit dem allgegenwärtigen Thema Algorithmic Discrimination and Manipulation. Prof. Dr. Krishna P. Gummadi forscht aktuell am Max Planck Institute for Software Systems in Saarbrücken dazu, wie bei automatisierter Entscheidungsfindung Diskriminierungen vermieden oder abgeschwächt werden können und wie den Algorithmen dazu beigebracht werden kann, faire Entscheidungen zu treffen. Die bereits in der US-Justiz eingesetzte Software COMPAS bildet dabei ein zentrales Beispiel. Zunächst dazu eingesetzt um die Rückfallgefahr von Straftätern vorherzusagen – und dabei den Einfluss von voreingenommenen menschlichen Entscheidungen zu verringern – hatte der Einsatz der Software das genaue Gegenteil zur Folge: der Algorithmus benachteiligte systematisch Schwarze, berechnete ihnen doppelt so häufig eine Rückfallgefahr wie Weißen.
Gummadi präsentierte sodann Möglichkeiten die Berechnungen fairer zu gestalten – stellte jedoch auch klar, dass mit jedem weiteren Eingriff in die Berechnungen die Treffsicherheit des Algorithmus sinken wird („no free lunch“).
Zum Abschluss des Panels widmeten sich Dr. Pietro Ortolani und Prof. Dr. Martin Ebers den rechtlichen Aspekten von Algorithmic Discrimination & Algorithmic Manipulation im B2C Bereich. Überblicksartig prüften sie den bestehenden Rechtsrahmen von EMRK bis DSGVO und Verbraucherschutzrecht darauf ab, ob dieser Diskriminierung (etwa durch Dynamic Pricing) und Manipulation verhindert und inwiefern Anpassungen notwendig werden.