Im Fair-Wohnen-Interview spricht MVÖ-Präsident Georg Niedermühlbichler mit dem KI-Experten Professor Stefan Woltran über Anwendungen, Möglichkeiten und Gefahren der Künstlichen Intelligenz.
Georg Niedermühlbichler: Wie hat Künstliche Intelligenz unser Leben bisher verändert und wie wird sie unser Leben in Zukunft verändern?
Stefan Woltran: Künstliche Intelligenz ist seit den Anfängen der Computer in den späten 1950er-Jahren in sehr begrenzten Einsatzgebieten immer vorhanden gewesen – auch dort, wo wir als Benutzer sie vielleicht nicht bemerkt haben. Beispiele hierfür sind die Routenplanung, die eigentlich ein klassisches KI-Thema ist, sowie Schachcomputer. In allen Systemen, die Ergebnisse sortieren, sei es bei Suchanfragen oder in Webshops, steckt ein bisschen KI. Mit ChatGPT und anderen Sprachmodellen ist KI seit 2022 nun plötzlich für jedermann und jederfrau zugänglich und kann ohne Barriere genutzt werden. Wir sehen das in Schulen und Universitäten. Die Kommunikation verändert sich – ob immer zum Guten, sei dahingestellt.
Ich glaube, wir sollten aufmerksam bleiben, denn KI-Systeme, ob Sprachmodelle oder Empfehlungssysteme, arbeiten mit Daten der Benutzerinnen und Benutzer. KI-Agenten, die Aufgaben für mich erledigen, Reisen buchen oder Termine ausmachen, müssen meinen Kalender kennen, meinen Kontostand und vieles mehr. Da sollte man sich fragen, ob man diese Daten jenen amerikanischen Konzernen liefern will, die den Markt dominieren.
Wie funktioniert eigentlich künstliche Intelligenz, wie kann man sich das vorstellen?
Es existiert eine breite Palette verschiedener Methoden. Vor 10, 15 Jahren wurden explizit Lösungsverfahren für konkrete Fragestellungen entwickelt, zum Beispiel Routenplaner oder Schachcomputer. Man kann einen Computer Schach spielen lassen ohne ihm 100.000 Schachpartien zuzuführen – es reichen die Regeln des Spiels. Die große Herausforderung bestand damals darin, effizient und möglichst schnell große Suchräume abzuarbeiten. Der Vorteil dieser Methoden der sogenannten symbolischen KI ist, dass sie exakt sind und eine Erklärung liefern. Diese Erklärung ist vielleicht kompliziert und komplex, aber zumindest Expertinnen und Experten können sie nachvollziehen.
Die andere große Gruppe an Methoden wie Deep Learning, Sprachmodelle und generative KI, arbeitet dagegen hauptsächlich mit Daten. Das System wird mit riesigen Datenmengen gefüttert, zum Beispiel den Bildern einer Katze oder eines Hundes samt zuordnender Beschreibung. Anhand dieser Daten wird ein neuronales Netz, das ist ein mathematisches Modell mit zig Milliarden von Parametern, kalibriert und trainiert. Wenn das System anschließend ein neues Bild sieht, soll es nach diesem Training mit einer möglichst hohen Wahrscheinlichkeit auf einem neuen Bild eine Katze oder einen Hund erkennen können. Das funktioniert überraschend gut, aber immer nur mit einer gewissen Wahrscheinlichkeit. Das kann aber auch sehr schwammig sein.
Ein Stoppschild ist für jeden Menschen auch dann als solches erkennbar, wenn daran zwei oder drei Pixel verändert wurden. In einem neuronalen Netz wird es unter Umständen jedoch als etwas anderes erkannt. Daher ist es schwierig, wirklich robuste und sichere Systeme zu entwickeln, zum Beispiel für autonomes Fahren. Außerdem hängt die Qualität datengetriebener KI-Systeme von den Trainingsdaten ab. Wenn dort etwas ausgelassen oder verzerrt ist, gerät Bias in das System. Das macht es bei Haftungs- oder Verschuldensfragen kompliziert.
Damit kommen wir zu einem Punkt, der die Mietervereinigung betrifft. Immer mehr Menschen stellen einem Sprachmodell im Chat auch Rechtsfragen. Sie haben gerade erklärt, dass diese KI-Modelle nur mit einer gewissen Wahrscheinlichkeit treffsicher sind und ihre Qualität von den Trainingsdaten abhängt. Wir bemerken, dass wir zunehmend mit offenbar KI-generierten Anfragen zu Rechtsthemen konfrontiert sind, denen beispielsweise die deutsche und nicht die österreichische Rechtslage zugrunde liegt. Welche Gefahren sehen Sie bei solchen Themen im juristischen Bereich, in dem es um Rechtsanwendungen und Fristenläufe geht?
Was die Qualität der Daten oder der Antworten betrifft, auch im rechtlichen Bereich, wird sich einiges einspielen. Routinefragen wird man zu einem gewissen Grad automatisieren können, bei anderen Fragen wird sich die Gesellschaft darauf einigen müssen, wie viel sie abgibt. Die jetzigen Systeme können beispielsweise zu einem Urteil noch keine Erklärung liefern, wie wir sie erwarten würden. Ich glaube daher, dass der Mensch weiterhin gefragt bleiben wird.
Eine Gefahr besteht darin, Aufgaben an KI-Systeme zu delegieren und zu sagen: Am Ende schaut ein Mensch nur noch einmal drüber. Hier muss man gewährleisten, dass der Mensch ein Einspruchsrecht hat und dies nicht zur Bürde wird. Wir sprechen vom »Automation Bias«, dem blindem Vertrauen in Computer, im Gegensatz zu »Human in the Loop«, bei dem der Mensch überwacht und bei Bedarf einschreitet.
Zusammenfassend: KI kann sehr unterstützend sein, wenn man sie vernünftig einsetzt und ihr nicht blind vertraut. Und vor allem, wenn die Datenbasis…
...die Datenbasis gut ist und funktioniert. Gerade im heiklen Gesundheitsbereich ist es wesentlich, dass die Daten im Haus bleiben.
Als Mietervereinigung werden wir selbstverständlich auch diese Systeme mit verifizierten Daten nutzen müssen. Wenn ich dagegen einem KI-Chatbot im Internet eine rechtliche Frage stelle, greift dieser auf ungeprüfte Quellen zurück, sodass ich falsche Informationen erhalten kann. Das heißt, jeder ist gut beraten, diese Informationen von jemandem prüfen zu lassen, der sich wirklich auskennt.
Genau. KI macht es zwar jetzt leichter, aber auch schon zuvor konnte man in irgendwelchen dubiosen Foren Fragen stellen, die dann von einem nicht minder dubiosen Experten beantwortet wurden. Das Problem dabei ist, dass die großen KI-Systeme genau diese Daten – auch jene von Pseudo-Experten – als Grundlage verwenden. Zwar werden die Antworten der KI-Systeme qualitativ besser werden, aber aus meiner Sicht ist nicht ausgemacht, dass die jetzt verfügbaren Systeme die Ultima Ratio sind. Dahinter steckt ein profitgetriebenes Business, das darauf abzielt, den einzelnen User möglichst lang auf dem System zu halten und mittelfristig Gewinne mit Werbeeinschaltungen oder Ähnlichem zu machen. Alternative Wege wären, die Systeme als Gemeingut aufzusetzen oder deren Qualität durch Zulassungsverfahren – ähnlich jenem für Arzneimittel – mit einem definierten Prozess abzusichern.
Solche Regelungen gibt es derzeit nicht, die Firmen stellen irgendein System ins Netz und die Menschen verwenden es. Das wurzelt in der Geschichte des Internets und auch ein bisschen in jener der Softwareentwickler, die sehr frei in ihrer Arbeit waren. Nun müssen wir uns als Gesellschaft fragen, wohin wir eigentlich wollen. Man beginnt, über Verbote und Zugangsbeschränkungen zu diskutieren; daneben gibt es einen Kampf um Urheberrechte. In den USA setzen die Firmenchefs mit ihren Systemen auf Trump und sein »Anything goes«, während Europa die Rolle des Regulierers spielt, aber über keine annähernd so skalierbaren KI-Systeme verfügt. China positioniert sich irgendwo zwischen Europa und den USA. Europa muss stark bleiben. Der Digital Services Act, der AI Act und die Datenschutz-Grundverordnung sind gute Grundlagen, die man sich nicht von Lobbyisten verwässern lassen darf. Das Thema ist hochpolitisch geworden.
Bei Internet und Social Media hinken Regierungen immer hinterher. Bei KI schaut man jedoch von Anfang an genauer hin.
Weil man bei Social Media gesehen hat, wie schnell ein System, das man anfangs für emanzipatorisch und demokratisch hielt, in eine ganz andere Richtung abgebogen ist.
In puncto Partizipationsmöglichkeiten liegt KI-technisch aber auch viel ungenutztes Potenzial brach. Übersetzungstools können Sprachbarrieren abbauen und es gibt spannende algorithmische Entwürfe, wie man Partizipationsprozesse aufsetzt und bewertet. Momentan sind KI-Systeme für den Einzelnen da, aber wenn man diese ins Kollektive bringt, wäre noch viel mehr möglich. Der Urgeist des Internets, das kollektive Schaffen von Wissen wie bei Wikipedia, ist etwas Tolles. Man vergisst gerne, dass es auch ohne Profitmodell funktionieren kann.
Es gab ein gemeinsames Digitalisierungs-Projekt der Stadt Wien und der TU Wien, »Brise«, bei dem ich peripher mitgearbeitet habe. Dabei ging es unter anderem darum, Bebauungspläne zu digitalisieren. Die Stadt Wien hat sich ja dem digitalen Humanismus verschrieben, der sich mit Fragen zu KI beschäftigt: Wie kann man Menschen bilden und Awareness schaffen, welche Probleme mit Daten entstehen können? In diesem Bereich gibt es spannende Kooperationen mit verschiedenen Ländern.
Ein großer Nachteil der KI ist, dass sie nie aufhört und immer Antworten gibt.
Das ist einer der Tricks bei Social Media: es kommt immer was Neues. Dieses psychologische Modell, die Leute im System zu halten, gibt es in KI-Systemen auch. Das hat schon zu tragischen Fällen geführt und dürfte eigentlich nicht am Markt sein. Aber klar, man kann immer sagen: Ein Messer ist auch ein Werkzeug, deshalb kann man es nicht verbieten.
KI hat uns in der Vergangenheit also schon viel länger begleitet, als uns bewusst war und wird uns auch in der Zukunft begleiten. Aber wie? Man liest immer wieder von Experten, die davor warnen, dass KI der Menschheit gefährlich werden könnte. Wie ernst ist so etwas zu nehmen?
Die klassische Geschichte, dass die KI irgendwann die Weltherrschaft an sich reißt, halte ich für Ablenkung. Weil es ganz andere Gefahren gibt, etwa die Überwachung persönlicher Daten. Nichtsdestotrotz muss man sagen, dass wir uns zu einem gewissen Grad anpassen. Durch Digitalisierung und KI werden wir jeden Tag in gewisse Richtungen gelenkt. Welche Nachrichten ich sehe, welchen Film ich streame, welchen Partner ich auf einer Partnerbörse wähle: das ist alles digital gesteuert. Und das geht fast jeder Person auf diesem Planeten so. Man darf diese Macht nicht unterschätzen. Wenn man nur zwei Prozent der Menschen in irgendeine Richtung lenken kann, bedeutet das extreme Macht. Dabei geht es nicht um die KI, sondern um die Leute dahinter.
Ich glaube nicht, dass die KI eigenmächtig wird und sich nicht mehr abschalten lässt. Im Endeffekt ist es nur ein komplexer Schaltkreis. Allein aufgrund der Komplexität eines Systems ist so etwas wie Bewusstsein nicht notwendigerweise vorhanden. Gefährlich wird es, wenn wir als Menschen dem System Eigenschaften zuschreiben, die es gar nicht hat, nur weil es wie eine Person agiert.
Danke für das Gespräch.
Bild: MVÖ