Reggie Townsend ist Direktor des Bereichs Datenethik beim US-Softwarehaus SAS. Das weltweit tätige Unternehmen aus North Carolina mit knapp 12.000 Mitarbeitern und Kunden aus 150 Ländern gilt als Pionier in den Bereichen des Maschinellen Lernens und der Künstlichen Intelligenz. Townsend ist seit April 2022 Mitglied im National Artificial Intelligence Advisory Committee, das den US-Präsidenten bei Fragen rund um den ethischen Einsatz von KI berät. Seit 2015 ist Townsend für SAS tätig, zuvor arbeitete der am Illinois Institute of Technology ausgebildete Experte (MBA in Technology Management und Marketing) für die Unternehmen Knowledge Advantage, Sage Life, Sun Microsystems und IBM.
V Sie wollen eine bessere, gerechtere Zukunft durch KI und damit verbundene Technologien erreichen. Haben Sie ein, zwei konkrete Beispiele für uns parat?
Aber sicher – mir fällt da gleich ein Projekt am Massey Cancer Center der Virginia Commonwealth University ein, das diesen Komplex sehr gut veranschaulicht. Dort arbeiten Forscher, Verwaltung und Bürger auf Datenbasis eng zusammen, um herauszufinden, wie Krebserkrankungen in sozial und wirtschaftlich benachteiligten Bevölkerungsgruppen auftreten. So entsteht ein System, in dem Patienten und ihr Umfeld direkt an der Erhebung und Nutzung neuer Forschungsergebnisse beteiligt sind, sie sind nicht mehr nur Objekt, sondern auch selbst Akteure. Die Ergebnisse dieser Untersuchungen kommen insbesondere unterversorgten Patientengruppen zugute: Sie erhalten eine bessere Gesundheitsversorgung und gleichberechtigt Zugang zu Behandlungen. Die Auswertung sehr großer Datenmengen mit Hilfe der Datenanalyseplattform SAS Viya bringt zutage, inwieweit einkommensschwache und vulnerable Bevölkerungsgruppen ein höheres Krebs- und Sterblichkeitsrisiko aufweisen. Datenmanagement, -analyse und -visualisierung laufen automatisiert ab, dadurch stehen die Forschungsergebnisse sehr schnell zur Verfügung. Wichtige Erkenntnisse zu Risikofaktoren und wirksamen Behandlungen lassen sich einfacher interpretieren und teilen. Entscheidend dabei: In allen Phasen eines solchen Innovationsprozesses müssen ethische Fragen, muss ein klares Verantwortungsbewusstsein eine zentrale Rolle spielen. Verantwortungsvolle Innovation durch KI setzt wiederum „vertrauenswürdige“ KI voraus: Das heißt, sie muss überprüfbar und erklärbar sein. Das ist gerade im Gesundheitswesen wichtig, weil es hier oft um Entscheidungen über Leben und Tod geht. Das Amsterdam University Medical Center hat beispielsweise ein sogenanntes Deep-Learning-Modell von SAS Viya darauf trainiert, Merkmale, die auf einen Tumor hinweisen, sofort zu erkennen und wichtige Informationen direkt an die zuständigen Ärzte weiterzugeben. Ziel ist eine schnellere Diagnose und eine rasche Entscheidung über lebensrettende Maßnahmen, etwa eine sofortige Operation. Sämtliche Schritte in diesem Prozess sind überprüfbar und transparent. So können die Ärzte genau nachvollziehen, wie der Algorithmus zu seiner Empfehlung gelangt ist.
V Was muss ein ethisch verantwortungsvoller Einsatz von KI beinhalten?
Letzten Endes muss jede Organisation ganz individuell entscheiden, was für sie verantwortungsvolle KI bedeutet – das hängt voll und ganz von der jeweiligen Unternehmenskultur und den Unternehmensprinzipien ab. Wir von SAS sehen uns dabei in der Pflicht, zu einer ethisch einwandfreien Umsetzung von Innovation beizutragen. Bei der Ausformulierung dieses Engagements für Responsible AI haben wir uns auf unsere Grundprinzipien gestützt: Menschlichkeit, Inklusion, Verantwortung, Stabilität, Transparenz sowie Datenschutz und Sicherheit. Die technische Voraussetzung für verantwortungsvolle KI ist eine Plattform, die die Entscheidungsfindung in jedem Schritt transparent und überprüfbar macht – beispielsweise indem Anwender Vorannahmen aufgrund von Verzerrungen in den Daten (Bias) erkennen können. Die statistischen Modelle lassen sich also aktiv überwachen, die Einhaltung von Governance ist sichergestellt und Verantwortlichkeiten sind klar. Ein Bias kann während des gesamten KI-Prozesses in verschiedenen Formen auftreten, daher benötigen KI-Plattformen unbedingt Funktionen, die solche Fehlentwicklungen bereits beim Datenmanagement und bei der Modellierung identifizieren.
V Sie sagen, Unternehmen brauchen generell ethische Innovationsprozesse. Warum?
Ein ethisch korrekter Umgang muss für KI, also für die Technologie, genauso selbstverständlich sein wie für die zugrundeliegenden Daten. Wer ethisch handelt, stellt die richtigen Fragen, beispielsweise: Steht der Mensch stets im Mittelpunkt? Ist das Team, das KI-Anwendungen entwickelt und trainiert, ausreichend divers? Wer hat Vorteile, wem entsteht womöglich Schaden? Besteht die Gefahr, dass die Daten und die KI existierende Vorurteile reproduzieren oder sogar verstärken? Ethische Aspekte sind nicht erst beim Einsatz von KI wichtig, sie sind an jedem Punkt zu berücksichtigen – von der ersten Idee für ein Anwendungsszenario bis hin zur Überwachung der Modelle. Ethisches Verhalten verringert das Risiko, unabsichtlich bestimmte soziale Gruppen zu vernachlässigen oder zu diskriminieren, was letztlich auch dem Image des Unternehmens schaden und zu Umsatzverlusten führen kann. Zudem werden Ethikverstöße immer strenger bestraft. Ein ethischer Umgang mit Daten und verantwortungsbewusste Innovation sind deshalb für Unternehmen mehr als sinnvoll.
V Klimawandel, Pandemie, Krieg, Energieknappheit: Was kann KI gegen Krisen tun?
KI-basierte Vorhersagen können insbesondere helfen, sich auf noch nie dagewesene Situationen, auf Krisen und Katastrophen bestmöglich vorzubereiten. KI ist in der Lage, die Auswirkungen von extremen Wetterbedingungen und Klimawandel auf vulnerable Bevölkerungsgruppen präzise zu berechnen. Damit lassen sich Schäden, benötigte Ressourcen und zu erwartende Versicherungskosten realistisch einschätzen. Im Falle einer Pandemie kann KI dabei helfen, die Ausbreitung der Krankheit vorherzusagen. Ein Land in Asien hat beispielsweise während der Covidkrise Daten von öffentlichen Einrichtungen des Gesundheitswesens mit Mobilfunkdaten kombiniert, um Aussagen darüber zu treffen, wo die nächsten Infektionsschwerpunkte zu erwarten sind. Viele Krankenhäuser waren zu Beginn der Pandemie überfordert, aber einige, darunter die Cleveland Clinic, nutzten KI, um den Bedarf an Krankenhausbetten, Schutzausrüstung und anderen wichtigen Ressourcen zu prognostizieren.
Klima, Pandemien und Kriege haben auch Auswirkungen auf globale Versorgungsketten. Mit KI lassen sich die komplexen Beziehungen der Lieferkette nachbilden. So ist es einfacher für Unternehmen und Behörden zu erkennen, wo es Engpässe geben könnte. Das gilt auch für die Energie- und Wasserversorgung. KI kann dabei helfen, sowohl die Nachfrage als auch das potentielle Angebot in bestimmten Gebieten zu prognostizieren, um einen möglichen Mangel zu mindern. Ein weiteres wichtiges Thema ist die Wasserqualität. In Florida trifft man mit KI erfolgreich Aussagen zur landwirtschaftlich verursachten Nährstoffbelastung und anderen Verschmutzungen, um das Auftreten schädlicher Algen zu minimieren, die Nutzpflanzen verdrängen, Millionen von Fischen töten und die Wirtschaft bedrohen.
In der Landwirtschaft wird KI auch deshalb zunehmend an Bedeutung gewinnen, weil wir vor der Herausforderung stehen, eine Weltbevölkerung von mehr als acht Milliarden Menschen zu ernähren. Gleichzeitig werden Computer Vision (Systeme, die Objekte in digitalem Bildmaterial erkennen und verarbeiten, Anm.) und das Internet of Things dazu beitragen, die Gesundheit von Tieren und Pflanzen durch Bildanalyse und Sensordaten besser überwachen zu können. Und KI wird darüber hinaus die Forschung zu Nutzpflanzen beschleunigen, so dass wirksame und sichere Mittel für den nachhaltigen Pflanzenschutz schneller auf den Markt kommen.
V Wie ist es bei KI-Anwendungen eigentlich um das Verhältnis der eingesetzten zur eingesparten Energie bestellt?
Das ist schwierig zu beantworten, da es von vielen verschiedenen Faktoren wie Datenmenge, Art der Speicherung oder Rechenleistung abhängt. Grundsätzlich gewinnt das Konzept „grüne KI“ definitiv an Zugkraft – und das aus gutem Grund. Die zum Trainieren von KI-Modellen benötigte Rechenleistung ist exponentiell gestiegen, da die Algorithmen immer komplexer werden. Entsprechend haben Volumen, Geschwindigkeit und Vielfalt der Daten zugenommen.
Eine gewisse Ironie: Der durch KI gestiegene Energieverbrauch und der größere CO2- Footprint lassen sich gleichfalls durch KI senken. Wer beispielsweise seine Trainingsdaten optimiert, verringert dadurch die Datenmenge, die er zur Erstellung von Modellen benötigt. Ein weiterer Ansatz ist Constrained Machine Learning, bei dem Datensätze regelbasiert von der Analyse ausgeschlossen werden können. SAS hat sich verpflichtet, bis 2050 komplett CO2-neutral zu sein. Wir erreichen das auf technologischer Ebene unter anderem durch Virtualisierung in großem Stil – wo früher 15 physische Maschinen liefen, ist es dann nur noch eine. Das spart bis zu 80 Prozent an Energie und Emissionen. Darüber hinaus verwenden wir unsere eigenen Softwarelösungen, um den Energieverbrauch unserer Rechenzentren und Gebäude sowie die Leistung unserer Solarparks zu überwachen. Zusätzlich lässt sich so der Einsatz von Heizung, Klimaanlage, Cloud-Computing-Ressourcen und anderen großen „Energieverschwendern“ optimieren.
V Wofür darf man KI nicht einsetzen?
Im Grunde geht es bei KI um automatisierte Entscheidungsfindung, und die kann überall Vorteile bringen. Wichtig ist jedoch, dass stets der Mensch im Mittelpunkt steht und die Entscheidungen ethischen Prinzipien folgen. Es gibt Bereiche, in denen der Einsatz von KI streng kontrolliert und sorgfältig reguliert werden muss – nämlich überall dort, wo Gesundheit, Sicherheit, Finanzen oder die persönliche Freiheit betroffen sind. Wenn Amazon mir ein Hemd empfiehlt, das mir nicht gefällt, ist das nicht weiter schlimm. Anders sieht es jedoch aus, wenn eine Bank ihrem Kunden aufgrund historischer Daten, die eine rassistische Verzerrung mitbringen, einen Kredit verweigert. Ebenso wenig ist es akzeptabel, wenn bestimmte gesellschaftliche Gruppen aufgrund von unausgewogenen Daten vom Gesundheitssystem unterversorgt werden. Gleichzeitig bietet KI aber auch die Chance, gegen historisch gewachsene Ungerechtigkeiten anzugehen.
V Zwei Drittel der großen deutschen Unternehmen verwenden Machine Learning. Wie sehen Sie die Situation der KI-Anwendungen in Deutschland, sind wir immer noch zu vorsichtig?
Die erfolgreiche Einführung von KI hängt von einer ganzen Reihe von Faktoren ab. Damit sie gelingt, brauchen Unternehmen vor allem drei Dinge: die passenden Mitarbeiter, Technologien und Richtlinien. Ob Deutschland zu zögerlich ist, kann ich nicht beantworten, ich weiß nur, dass es in verschiedenen Ländern unterschiedliche Toleranzgrenzen für den Einsatz von KI gibt – je nach öffentlicher Wahrnehmung in der jeweiligen Bevölkerung. Deshalb ist es wichtig, dass wir ein breiteres Verständnis für KI schaffen, um Angst und Verunsicherung zu begegnen. Diese resultieren oft aus einem Informationsmangel und manchmal auch aus popkulturellen Einflüssen wie dem Film „Terminator“, in dem ein KI-gesteuerter Android Amok läuft. Ein Großteil der Bevölkerung braucht also noch Grundlagenwissen darüber, was KI wirklich kann – und was nicht. Ein solches kollektives Verständnis für KI hilft, unbegründete Ängste abzubauen und die Akzeptanz für KI zu erhöhen. Flankiert wird diese Entwicklung idealerweise von intelligenten politischen Entscheidungen und Regulierungsmaßnahmen. Dabei ist es meiner Meinung nach am wichtigsten, dass diese Vorschriften einheitlich und klar formuliert sind. Denn nur mit regulatorischer Konsistenz lässt sich sicherstellen, dass Anbieter von KI-Produkten genau die Vorgaben und Risiken kennen – und danach handeln.
Ein Faktor, der die breitflächige Einführung von KI aktuell behindert, ist der Mangel an Data Scientists. Die Demokratisierung von Analytics ist zwar in vollem Gange, dennoch werden Datenexperten weiterhin dringend benötigt. Einen Vorteil werden also vor allem die Länder haben, denen es gelingt, Spitzentalente in diesem Bereich aufzubauen und zu halten.
Die Fragen stellte Oliver Kauer-Berk.




