- 26.06.2023, 16:56:26
- /
- OTS0148
Künstliche Intelligenz: Parlamentarisches Forum über Chancen und Herausforderungen
Impulsvorträge zu den Auswirkungen auf Demokratie, Rechtssystem und Wirtschaft
Die Auswirkungen künstlicher Intelligenz (KI) auf Demokratie und Gesellschaft waren Thema des heutigen parlamentarischen Forums, zu dem Nationalratspräsident Wolfgang Sobotka Expert:innen aus den verschiedensten Bereichen einlud. So legte KI-Forscher Günter Klambauer von der Johannes Kepler Universität Linz (KJU) die Grundlage für die weiteren Ausführungen, indem er sich der Frage "Was ist KI?" annäherte. Michael Hirschbrich, CO-Founder und CEO von apollo.ai, ging auf die Chancen ein, die KI der österreichischen Wirtschaft biete. Iris Eisenberg, Professorin am Institut für Innovation und Digitalisierung im Recht an der Universität Wien, erläuterte den europäischen Rechtsrahmen. Der Rektor der Johannes Kepler Universität Linz, Meinhard Lukas, hielt wiederum ein Plädoyer für eine demokratische Digitalpolitik.
Klambauer: Wie funktionieren moderne Sprachmodelle eigentlich?
Günter Klambauer, KI-Forscher an der KJU Linz, leitete die Vorträge mit seinem Impulsreferat "Was ist KI und wie funktionieren moderne Sprachmodelle wie ChatGPT?" ein: Der Begriff "künstliche Intelligenz" (KI) sei 1956 von Forscher John McCarthy geprägt worden. Klambauer verwies dazu auf eine kurze Definition, die 1981 von den Forschern Barr und Eisenbaum formuliert wurde: "KI ist die Fähigkeit einer Maschine, kognitive Funktionen auszuüben, die dem menschlichen Verstand zugeordnet werden, z. B. Lernen, Planen, Argumentieren, Problemlösung und Erwerb von Fähigkeiten."
Wesentliche Etappen der Entwicklung waren dabei das maschinelle Lernen auf Basis von Daten in den 1980er Jahren. Ab 2010 begann die Phase des Deep Learnings, die bereits breit zum Einsatz komme. Dieses wurde mit der Verfügbarkeit von schnellen Rechnern (GPU Servers) möglich, die auch die Entwicklung von künstlichen neuronalen Netzen erlaubten. Wesentlich seien große Datensätze, auf die zugegriffen werden könne. Damit habe etwa AlphaFold mit der Analyse von Aminosäuren einen Durchbruch in der Biologie und der Entwicklung von Medikamenten ermöglicht. Moderne KI-Modelle erstellen auch verbesserte Wetter- und Klimamodelle und werden hier zweifellos noch verstärkt zum Einsatz kommen.
Klambauer erläuterte die Grundzüge der neuesten Anwendungen in Form von Sprachmodellen wie ChatGPT, die aufgrund der Möglichkeiten zur Erstellung von Texten besonderes Interesse erwecken. Moderne Sprachmodelle bestehen dabei aus einem tiefen neuronalen Netz, das von Wissenschaftler:innen entwickelt wird. Die Daten, anhand derer das Modell lernt, ist ein Textkorpus, das von der jeweiligen Organisation bzw. Institution ausgewählt wird, die das Modell anwendet. Dieses Korpus bestimmt auch die Wahrscheinlichkeiten, die das Modell ausgibt. Ein weiteres wichtiges Element ist der sogenannte Text-Prompt oder Kontext, der von den User:innen eingegeben werden muss, und über den die Regulierung der Ergebnisse erfolgt.
Klambauer führte weiter aus, dass es geteilte Meinungen unter Forscher:innen insbesondere darüber gebe, ob es sich bei diesen auf dieser Basis entwickelten Sprachmodellen nur um "stochastische Papageien" handle, erläuterte Klambauer. Die Frage sei, ob Computerprogramme Texte nur auf Basis von antrainierten Wahrscheinlichkeiten automatisiert erstellen, aber nicht "wissen" würden, worüber sie schreiben. Aus seiner Sicht laute die Antwort derzeit "Jein". Bejahen könne man die Frage, weil Sprachmodelle die Häufigkeiten von Wörtern verwenden und basierend darauf nur Wahrscheinlichkeiten von Folge-Wörtern vorhersagen. "Nein" deshalb, weil bei der Verarbeitung von Wörtern auch neuronale Aktivierungsmuster, ähnlich wie sie im menschlichen Gehirn vorkommen, verwendet werden, was dann zum Teil auch für die Wissenschaftler:innen überraschende Ergebnisse liefere.
Für die Wissenschaft schwierig zu beantworten seien diese Fragen derzeit auch deshalb, weil die Neuronenverbindungen der Programme nicht freigegeben würden und daher nicht beforscht werden können, führte Klambauer aus. Zu beachten sei zudem, dass die Sprachmodelle tatsächlich nur wahrscheinliche Wörter wiedergeben, aber nicht die Korrektheit überprüfen. Auch müsse beachtet werden, dass die Programme auch eine in den Daten vorhandene Bias übernehmen.
Michael Hirschbrich: Grundoptimismus gegenüber KI muss erhalten bleiben
Die überbordende tägliche Informationsflut für Individuen bewältigbar zu machen, sei für Michael Hirschbrich die Intention gewesen, sich unternehmerisch mit KI auseinanderzusetzen, wie er in seinem impulsvortrag darlegte. Der Computer habe dafür anhand von Trainingsdaten lernen müssen, Texte zu "verstehen", damit die richtigen und relevanten Informationen aus einem Datenpool gefiltert werden können. Mit dem Gedanken, die "Silicone-Valley-Giganten" zu regulieren, habe die EU per Direktive die Möglichkeit der Heranziehung von Trainingsdaten auch für die heimische Wirtschaft stark eingeschränkt. Dies betrifft laut Hirschbrich 130 bis 150 österreichische Unternehmen, die sich mit KI beschäftigen. KI werde künftig einen wesentlichen Faktor der Produktivität und Wohlstandssicherung darstellen, weshalb man sich in der Debatte darüber nicht "von Angst leiten lassen" dürfe. Prognosen über die arbeitsplatzgefährdende Wirkung der KI seien weit überzogen, da diese bisher vornehmlich - so wie seine Produkte - einen assistierenden Charakter aufwiese, erklärte Hirschbrich. Es gehe also nicht darum, eine "ideologische" Regulierungsdebatte zu führen, sondern das Phänomen KI etwa aus philosophischer, soziologischer und rechtlicher Perspektive einzuordnen. Wenn man sich nicht vom "Grundoptimismus" abbringen lasse, könne die KI für Europa auch gegenüber den USA und China zum Erfolgsmodell werden, so Hirschbrich.
Iris Eisenberger über die Regulierung von KI zum Schutz der Grundrechte
Die Gesellschaft werde sich mit den Auswirkungen der KI auf Recht und Demokratie befassen müssen, "wenn es in zehn Jahren noch ein Parlament geben soll", leitete Iris Eisenberger ihren Vortrag zum Rechtsrahmen der EU und den grundrechtlichen Komponenten ein. Sie zeigte anhand konkreter Beispiele, wie auf KI basierende Technologien Grundrechte verletzten könnten, wenn diese weitgehend unreguliert angewendet werden würden. Es gehe etwa um die Verbreitung von Falschinformationen, Eingriffe in die Meinungsfreiheit, um Verstöße gegen den Datenschutz oder - etwa im Fall von KI-betriebenen Pflegerobotern - sogar um die körperliche Integrität.
Eisenberger verwies unter anderem auf die Auswirkungen des Einsatzes KI-gestützter Social-Scoring-Systeme bei Versicherungen oder von Echtzeit-Gesichtserkennung bei polizeilichen Ermittlungen, die gleich mehrere Grundrechte verletzten können. Das Ziel der KI-Verordnung der EU sei es, eine menschenzentrierte, vertrauenswürdige KI sicherzustellen, die auch Sicherheit in Hinblick auf Grundrechte, Rechtsstaat, Demokratie und Umwelt biete. Gleichzeitig sollen Innovationen ermöglicht werden. Das Regulierungsmodell folgt laut Eisenberger einem risikobasierten Ansatz, wobei grundsätzlich aus höherem Risiko auch stärkere Regulierung folge - Ausnahmen bestünden etwa für Forschungszwecke. Generell gelte es immer, einen Kompromiss zwischen Sicherheit und der kommerziellen Nutzbarkeit von KI zu finden. Einige der Regulierungen seien jedoch zum Schutz der Grundrechte nicht ausreichend, insbesondere was systemische Gefahren betreffe, die zur Beseitigung von deren Voraussetzungen führen könnten, so Eisenberger.
Meinhard Lukas zur digitalen Souveränität Europas
Dass die Souveränität vom Volk ausgeht, erscheine zunächst klar, doch müsse diese Frage angesichts der technologischen Entwicklungen im digitalen Bereich neu aufgeworfen werden, erklärte Meinhard Lukas, Rektor der KJU Linz. Es sei der falsche Ansatz, Fortschritte erst abzuwarten und sie dann philosophisch, ethisch und rechtlich aufzuarbeiten. Eine parallele Reflektion der Implikationen für die verschiedensten Bereiche wäre weitaus sinnvoller. Lukas rekurrierte auf die Geschichte des Internets, das anfangs von seinen Vorreitern als basisdemokratischer Raum vorgestellt worden sei. Mittlerweile sei klar geworden, dass "Big Tech" kraft seiner Kapitalstärke und überlegener digitaler Infrastruktur im digitalen Raum den Souverän darstelle. Zudem verfügten diese Unternehmen über einen "unglaublichen Know-How-Vorsprung" gegenüber den regulierenden Instanzen. Das Europäische Parlament agiere "im Nebel", da es an Fachwissen mangele, erklärte Lukas.
Als wesentlich erachtete er die Regelungen bezüglich der Trainingsdaten und die Transparenzpflicht - die Menschen müssten wissen, wenn sie mit KI zu tun haben. Hinsichtlich der Trainingsdaten stoße der Schutz der Grundrechte allerdings an seine Grenzen, da die Einhaltung der diesbezüglichen Regelungen kaum überprüft werden könne. Generell würde die EU die angestrebte digitale Souveränität nicht primär durch Regulierungen erreichen, sondern durch die technologische "Durchdringung und Beherrschung der KI-Systeme". Lukas plädierte für ein KI-Forschungszentrum nach dem Vorbild des CERN, dessen Rechnerinfrastruktur mit denen der IT-Riesen mithalten kann. (Fortsetzung parlamentarisches Forum) wit/sox
HINWEIS: Fotos von dieser Veranstaltung finden Sie im Webportal des Parlaments.
Rückfragen & Kontakt
Pressedienst der Parlamentsdirektion
Parlamentskorrespondenz
Tel. +43 1 40110/2272
pressedienst@parlament.gv.at
http://www.parlament.gv.at
www.facebook.com/OeParl
www.twitter.com/oeparl
OTS-ORIGINALTEXT PRESSEAUSSENDUNG UNTER AUSSCHLIESSLICHER INHALTLICHER VERANTWORTUNG DES AUSSENDERS - WWW.OTS.AT | NPA