"Zwischen Angst und Euphorie"

Ein Gespräch mit Damian Borth über die Risiken und vor allem die Chancen von Künstlicher Intelligenz (KI)

Prof. Dr. Damian Borth ist Ordentlicher Professor für Artificial Intelligence and Machine Learning (AIML) an der Universität St. Gallen (HSG) und Mitglied im Beirat des Roman Herzog Instituts.

Herr Borth, vor zwei Jahren haben Sie in Ihrem Beitrag für unseren Zukunftsnavigator 2020 darauf hingewiesen, dass künstlich intelligente Systeme genauso wie die Bremsen eines Autos oder die Turbinen eines Flugzeugs über ihren gesamten Lebenszyklus hinweg kontrolliert, überwacht und gewartet werden müssen. Was ist seitdem passiert? Sind wir auf dem Weg zu einer sicheren und humanen KI vorangeschritten?

Damian Borth: Auf jeden Fall. Die Europäische Kommission hat die Wichtigkeit des Themas erkannt und 2021 Vorschläge vorgelegt, wie KI-Systeme in Hinblick auf Sicherheit, Grundrechte und Privatsphäre überprüft werden können. Damit ist das Thema endgültig auf dem Tisch und muss „nur noch“ mit Leben gefüllt werden. Denn wie bei jeder Regulierung gilt auch hier: Sie ist immer nur so stark wie die dazugehörigen Kontrollmechanismen.

Doch ich bin zuversichtlich, dass das wie bei der europäische Datenschutz-Grundverordnung (DSGVO) gelingen wird. Im August letzten Jahres wurde ein Unternehmen von der niedersächsischen Datenschutzbehörde mit einem Bußgeld von rund 65.000 Euro belegt, weil es für seinen Web-Shop eine veraltete und unsichere Software verwendet hat – dadurch konnten die Passwörter von Kunden ausgespäht werden.

Inzwischen gilt die DSGVO weltweit als Vorbild und beeinflusst auch die Datenschutzgesetzgebung in Ländern wie Japan oder Kalifornien.

Ein Begriff, der im Zug von KI immer wieder fällt, ist der Begriff des Vertrauens.

Borth: Vertrauen ist ein zerbrechliches Gut. Es ist nicht einfach da, man muss es sich verdienen. Und wenn man es verspielt hat, dauert es eine ganze Weile, bis man es zurückgewinnen kann. Es verläuft also asymmetrisch – zwischen Unternehmen und Kunden, Verlagen und Lesern, Ärzten und Patienten.

Im Alltag greifen wir auf etliche Artefakte zurück, um möglichst schnell eine vertrauensvolle Basis zu schaffen, auf der wir uns begegnen können. Das kann der Reisepass sein, der dem Security-Personal am Flughafen das sichere Gefühl gibt, dass es mich zum Gate lassen kann. Oder die Corona-App, die dem Restaurantbesitzer signalisiert, dass keine Ansteckungsgefahr von mir ausgeht.

Doch wir wissen alle, wie fragil das Ganze ist. Nicht nur Reisepässe oder Corona-Zertifikate werden im großen Stil gefälscht, sondern auch digitale Audio- und Videoaufnahmen (Deep Fakes). Insofern sind wir gefordert, uns immer wieder die Fragen zu stellen: Wie funktioniert in einer globalisierten und zunehmend digitalisierten Welt ein gutes Miteinander? Wie sehen neue, vertrauenswürdige Identitäten und Artefakte aus? Und wie kann uns eine KI hierbei unterstützen?

Können Sie ein, zwei Beispiele nennen?

Borth: Corona hat uns gezeigt, wie volatil unsere Wertschöpfungsketten sind. Unternehmen standen und stehen vor der Frage, wie sie bei Liefer- oder Produktionsengpässen schnell einen anderen Partner finden können – und ob es diesen Partner wirklich gibt. Die Global Legal Entity Identifier Foundation (GLEIF) mit Sitz in Basel setzt sich beispielsweise dafür ein, dass jedes Unternehmen weltweit nur über eine einzige, verifizierbare globale Identität verfügt.

Ein zweites Beispiel betrifft den Klimawandel und all die Selbstverpflichtungen, die Unternehmen im Moment medienwirksam eingehen. So hat Amazon im Rahmen von „Climate Pledge“ das Versprechen abgegeben, dass sie zusammen mit mehr als 200 Unternehmen bereits im Jahr 2050 klimaneutral wirtschaften wollen. Solche Initiativen sind immens wichtig. Und doch stellt sich auch hier die Frage nach Vertrauen und Vertrauensnachweis. In der Klimakrise kann uns aus meiner Sicht nur Transparenz wirklich effizient voranbringen.

Deswegen haben Sie auch zusammen mit Ihrem Kollegen Michael Mommert angefangen, weltweit alle Kraftwerke zu beobachten und mithilfe von Künstlicher Intelligenz Schadstoff-Emittenten zu entlarven. Können Sie uns darüber etwas erzählen, wie ist der aktuelle Stand?

Borth: Wir haben gerade zwei Arbeiten veröffentlicht, in denen wir zeigen, dass es mithilfe von tiefen neuronalen Netzen durchaus möglich ist, Kraftwerke zu identifizieren und den Rauch aus ihren Schornsteinen pixelgenau zu messen. Das Ziel ist, alle Kraftwerke, zuerst in Europa und dann weltweit, durch unsere KI-Verfahren kontinuierlich zu scannen und deren Ausstoß zu quantifizieren. In einem weiteren Schritt wollen wir dieses Verfahren auf die Schwerindustrie anwenden und auch hier den CO2-Ausstoß messen.

Die ausgewerteten Daten könnten mit Nachhaltigkeitsberichten verknüpft werden, um zu prüfen, ob die Angaben der Emittenten mit dem real gemessenen Ausstoß übereinstimmen. Diese Informationen nutzen wiederum Rating-Agenturen, um Unternehmen in puncto Klimaschutz zu bewerten. Der Finanzhebel ist einer der effizientesten Wege, um umweltverträgliches Handeln in der Industrie zu erreichen. Vergangenes Jahr haben sich Investoren mit einem Anlagevermögen von über 43 Billionen US-Dollar zu Net Zero verpflichtet – damit fließt fast die Hälfte des weltweiten Anlagevermögens nur noch in klimaneutrale Portfolios.

Und Ihre KI-Verfahren funktionieren schon einwandfrei?

Borth: Wir stehen noch am Anfang eines gigantischen Datenbergs und dessen Auswertung – gelegentlich können unsere Modelle aufsteigenden Rauch nicht von reflektierenden Oberflächen oder bestimmten Wolkenformationen unterscheiden. Doch wir hoffen, dass wir mithilfe von speziellen Trainingsansätzen (Self-Supervised Learning) und dem enormen Datenschatz der Europäischen Weltraumorganisation (ESA) unsere Modelle schon bald bis auf wenige Prozentfehlerpunkte perfektionieren können.

Aber es geht uns nicht nur darum, eine intelligente Kamera im Weltall zu installieren und Klimasünder zu überführen. Die künstliche Intelligenz liefert zusammen mit Satellitenbildern auch essenzielle Informationen über die Biodiversität von landwirtschaftlichen Flächen oder die Luftqualität im urbanen Raum.

Künstliche Intelligenz lässt sich aber auch – Sie habe es anfangs bereits erwähnt – für die Manipulation von Audio- und Videoaufnahmen nutzen. Wie hoch ist die Gefahr von solchen Deep Fakes aus Ihrer Sicht – zumal Experten davon ausgehen, dass in nicht allzu ferner Zukunft Echtzeit-Deepfakes möglich sein werden?

Borth: Für mich sind Deep Fakes die Industrialisierung von Fake News. Sie werden zu unserem medialen Alltag dazugehören und wir müssen lernen, damit umzugehen. Zugleich können wir aber auch hier wieder vertrauen. Der bereits angesprochene Gesetzesentwurf der Europäischen Kommission sieht vor, dass Deep Fakes als solche gekennzeichnet werden müssen. Zudem arbeiten Tech-Unternehmen wie Google oder Facebook mit Hochdruck an KI-Modellen, die Deep Fakes erkennen. Und auch die Methoden, mit denen wir unsere Stimmen in der virtuellen Welt schützen können – mit einer Art Wasserzeichen oder Fingerabdruck – nehmen zu.

Können Sie dennoch verstehen, dass viele Menschen angesichts von KI Angst haben?

Borth: Natürlich. Es liegt in der Natur von uns Menschen, auf neue Technologien mit Sorge und Skepsis zu reagieren. Das war schon bei der Dampfmaschine so, beim Buchdruck oder der Elektrizität. Zudem kommen zwei Aspekte hinzu.

Erstens: Bei einer Künstliche Intelligenz besteht zumindest theoretisch die inhärente Möglichkeit einer Eigenständigkeit, das heißt, sie könnte sich zu einer autonomen Maschine mit eigenen Gefühlen und eigener Meinung weiterentwickeln.

Zweitens: Viele KI-Tools stehen für jeden kostenlos zur Verfügung. Auch das befeuert die Angst vor Kontrollverlust, weil man nicht genau weiß, wer welche KI-Software-Codes für welche Zwecke benutzt – anders ausgedrückt: Aufgrund der hohen Accessibility hat die KI einen starken Dual-Use-Charakter. Um hier einen guten Weg zwischen völliger Euphorie und panischer Angst beschreiten zu können, dürfen wir nicht aufhören, miteinander offen zu sprechen.

Wir müssen uns den Fragen und den Diskussionen stellen. Auch um einen vernünftigen Korridor definieren zu können, der eng genug ist, um vor Missbrauch zu schützen, aber auch breit genug, um das Potenzial auszuschöpfen. So kann die Technologie, mit der Deep Fakes erzeugt werden, auch dafür eingesetzt werden, Menschen nach einer Kehlkopfkrebsoperation ihre Stimme zurückzugeben – eine zutiefst sinnvolle, humane Anwendung.

Bleiben wir zum Abschluss gerne bei den Potenzialen. Sie stehen im regen Austausch mit KI-Experten weltweit. Gab es dennoch eine Entwicklung innerhalb der vergangenen ein, zwei Jahre, die Sie überrascht hat?

Borth: Kein Bereich entwickelt sich derzeit so rasant wie die KI – auch weil große Tech-Giganten Milliarden-Budgets investieren. Insofern gibt es tatsächlich Durchbrüche, die revolutionär sind.

Forscher der britischen Firma DeepMind, ein Tochterunternehmen der Google-Holding Alphabet, haben beispielsweise ein zentrales Problem der biomedizinischen Forschung gelöst. Ihre Künstliche Intelligenz mit dem Namen AlphaFold kann in kurzer Zeit ziemlich präzise die 3-D-Struktur eines Proteins bestimmen. Bislang kamen dafür die Röntgenkristallografie und die Kryoelektronenmikroskopie zum Einsatz – Techniken, die nicht nur kosten-, sondern auch sehr zeitintensiv sind.

Wer jetzt bei „Google-Holding“ zusammengezuckt ist und Schlimmstes befürchtet, den muss ich enttäuschen. Der Code ist frei verfügbar und die Fachwelt bereits dabei, das Programm aus- und weiterzubauen, nicht zuletzt, um bessere Medikamente und Impfstoffe zu entwickeln. Insofern wünsche ich mir auch hier, dass sich der allgemeine Blick auf die Technologie ändert. Durchaus kritisch, aber offen und chancenorientiert zugleich.

© Roman Herzog Institut e.V.