"Computer sind nicht wie Menschen und Menschen nicht wie Computer"
Mit weiteren Impulsreferaten sowie einer Podiumsdiskussion mit Vertreter:innen aller Parlamentsparteien wurde heute Nachmittag das Parlamentarische Forum zum Thema "Auswirkungen von KI auf Gesellschaft und Demokratie" fortgesetzt. Sarah Spiekermann-Hoff von der Wirtschaftsuniversität Wien richtete dabei einen eindringlichen Appell an die Politik, die möglichen Auswirkungen von generativer künstlicher Intelligenz, etwa auf die Würde des Menschen, die Privatsphäre, die Wahrheit und die Gleichheit, nicht zu unterschätzen und die Grundrechte der Bürger:innen zu schützen. Neben verpflichtenden "Impact Assessments" für neue KI-Anwendungen schlägt sie in einem verteilten Papier etwa vor, ein von der IT-Industrie finanziertes Schutznetz für IT- und KI-Missbrauchsopfer einzurichten und für eine einfache Durchsetzung von Schadenersatz zu sorgen. Auch die Regulierung von privatem digitalen Medienkonsum kann sie sich vorstellen.
Einig sind sich Spiekermann-Hoff und der Philosoph Julian Nida-Rümelin darin, dass Computer nicht wie Menschen bzw. Menschen nicht wie Computer seien. Die gegenteilige Auffassung sei "völliger Unsinn", bekräftigt Spiekermann-Hoff in dem genannten Papier. Für diesen "großen Sündenfall des Denkens" macht Nida-Rümelin den von ihm sonst geschätzten Mathematiker Alan Turing verantwortlich, der in den 1950er-Jahren auf die Idee kam, einen Test zu entwickeln, mit dem festgestellt werden können soll, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. Dieser sogenannte Turing-Test habe "zu einer Verhexung des Verstands geführt", meinte er. Maschinen menschliche Eigenschaften zuzuschreiben, hält Nida-Rümelin nicht nur für falsch, sondern auch für fatal, nicht zuletzt für die Demokratie.
Spiekermann-Hoff: Generative KI ist nicht konsistent und verlässlich
Eingeleitet wurde der Nachmittag mit einem Vortrag von Sarah Spiekermann-Hoff, Leiterin des Instituts für Wirtschaftsinformatik und Gesellschaft der Universität Wien, die sich mit den menschlichen und gesellschaftlichen Herausforderungen von generativer künstlicher Intelligenz (GenAIs) wie dem Chatbot ChatGPT auseinandersetzte. ChatGPT habe nach nur sechs Monaten bereits 100 Millionen Nutzer:innen. Es gebe heute kaum eine Firma oder Branche, die nicht darüber nachdenke, wie sie KI systematisch einsetzen könne, wies sie auf die Dimension des Themas hin.
Vor diesem Hintergrund appellierte Spiekermann-Hoff an die Politik, die Auswirkungen von generativer KI nicht zu unterschätzen. Auch wenn viele es nicht wahrhaben wollten, drohen ihr zufolge massive Gefahren. Es gehe um mehr als darum, ein paar vermeintlich kleine technische Probleme zu "fixen".
Die Probleme beginnen Spiekermann-Hoff zufolge schon beim Training von Chatbots wie ChatGPT, da dabei "ungeheuer viele" personenebezogene Daten einer "zweckentfremdeten Zweitnutzung" zugeführt würden. Streng genommen müsste rückwirkend von allen europäischen Nutzern eine Zustimmung eingeholt werden, dass ihre in den sozialen Medien und sonst wo hinterlassenen personen-beziehbaren Daten für das KI-Training genutzt werden dürfen, meinte sie in dem von ihr verteilten Papier. Auch könnten Urheberrechts-Besitzer:innen kaum nachvollziehen, ob geschützte Softwarecodes bzw. Text- und Bildinhalte im KI-Training genutzt würden. Dazu komme, dass Menschen den GenAIs viele private Details erzählen, was deren Betreiber:innen enorme Manipulationsmöglichkeiten eröffne und zu noch nie dagewesenen Machtasymmetrien führe.
Als weiteres Problem sieht die Expertin, dass generative künstliche Intelligenz "es nicht so mit der Wahrheit hat". Aufgrund deren technischer Natur seien "Schätzungsfehler" auch nicht in den Griff zu bekommen, diese seien im Wesentlichen systemimmanent. Wenn die Trainingsdaten "nicht sauber kuratiert sind" - und das sei angesichts der Datenmenge extrem aufwändig und teuer - könnten GenAIs Fake News als wahr aufgreifen und weiter verbreiten, selbst wenn deren Betreiber:innen das nicht wollten. Dazu komme, dass lediglich "historische" Daten für das Training genutzt werden, GenAIs also nicht zukunftsgerichtet sind. Die Folge sei, dass eines der wichtigsten Prinzipien der Informatik, nämlich dass Maschinen-Output konsistent und verlässlich sein muss, von generativer künstlicher Intelligenz aufgebrochen werde. Darüber hinaus werde durch GenAIs "massenhafter Deep Fake" möglich, während hingegen Transparenz in Bezug auf das Zustandekommen des Outputs von KI fehle.
Das Argument, dass auch Menschen - und nicht nur Computer - irren können, lässt Spiekermann-Hoff nicht gelten. Es sei etwas völlig anders, ob sich ein Mensch unwillentlich irre und sich vielleicht dafür schäme, oder ob unzulängliche Maschinen auf den Markt gebracht werden, für deren Irrtümer und daraus resultierender Kollateralschäden niemand die Verantwortung übernehmen wolle. Zumal gleichzeitig der Ersatz von Wahrheit durch Wahrscheinlichkeit und Toleranz gegenüber Halbwahrheiten und "Falschheiten" zu einem Verlust des Vertrauens führen könnten. Wer hafte dafür, wenn ein Chat-Bot einem Kunden etwas Falsches erzähle oder ein KI-Bot einer Behörde falsche Auskünfte erteile, fragte sie.
Spiekermann-Hoff sieht darüber hinaus die Gefahr, dass durch die Übernahme bestimmter Tätigkeiten durch KI diese von den Menschen gar nicht mehr erlernt würden. Das führe zu einem massiven Wissensverlust in der Gesellschaft und werde es in Zukunft sukzessive erschweren, den Output von KI zu beurteilen. Die Expertin rechnet auch damit, dass bis zu 600 Millionen Menschen vor der Entlassung stehen könnten. Weitere Probleme sieht sie in der Machtfülle großer IT-Dienstleister bei gleichzeitigem suchtähnlichem Verhalten mancher Nutzer:innen, der zunehmenden Abhängigkeit Europas von den USA sowie drohenden Umweltschäden. Eine einzige Abfrage von ChatGPT verbrauche mindestens zehnmal so viel Strom wie eine einfache Suchabfrage bei Google, hält sie in ihrem Papier fest.
Angesichts der vielfältigen Gefahren richtet Spiekermann-Hoff an die österreichische Politik den Appell, sich nicht auf die europäische KI-Verordnung zu verlassen, sondern sich selbst "der Breitseite der Herausforderungen" zu stellen. Man dürfe mit KI nicht so umgehen, wie mit anderen IT-Entwicklungen in den letzten 25 Jahren und alles was neu ist, automatisch als gut bewerten und zu 100% akzeptieren, warnte sie.
Konkret schlägt Spiekermann-Hoff im verteilten Papier etwa standardisierte Impact-Assessments für neue KI-Anwendungen, die Einrichtung behördlicher Prüfstellen - ähnlich dem deutschen TÜV - sowie spürbare Sanktionen für Manager:innen und Unternehmen vor, wenn IT-Systeme die EU-Grundrechtscharta verletzten oder andere massiv negative Konsequenzen haben. Zudem gelte es, ein starkes - von der IT-Industrie selbst finanziertes - Schutznetz für IT- und KI-Missbrauchsopfer samt Einklagbarkeit von Schäden zu schaffen sowie in nationale Daten- und Datenverarbeitungssouveränität zu investieren, um eine Unabhängigkeit von amerikanischen Cloud-Systemen sicherzustellen, auch wenn letzteres als fast unmöglich erscheinen möge.
Ebenso drängt Spiekermann-Hoff darauf, "Transhumanismus" vom Bildungssystem fernzuhalten, die Umwelt- und Gesundheitsauswirkungen von KI und von dieser genutzter Technologien zu untersuchen und den privaten digitalen Medienkonsum zu regulieren. KIs selbst eine Rechtspersönlichkeit zuzuweisen, hält die Expertin hingegen für den falschen Weg.
Was immer wieder angestellte Vergleiche von Menschen mit Computern betrifft, hält Spiekermann-Hoff in ihrem Papier unter anderem fest, dass das Gehirn keine Daten im informationstechnischen Sinn verarbeite. Auch könnten KI-Systeme weder menschenähnlich reagieren noch menschenähnlich denken.
Nida-Rümelin: Künstliche Intelligenz ist nicht intelligent
Auch Julian Nida-Rümelin, emeritierter Professor für Philosophie und politische Theorie der Ludwig-Maximilians-Universität München, warnte davor, künstliche Intelligenz mit Menschen zu vergleichen. Schon allein den Begriff künstliche Intelligenz hält er für höchst problematisch und in jedem Fall nur dann für akzeptabel, wenn mit großem "K" geschrieben. Maschinen hätten weder personale Eigenschaften noch bestimmte mentale Zustände und könnten auch ihre Aufmerksamkeit nicht auf etwas Bestimmtes richten. Der Philosoph bewertete es in diesem Sinn auch kritisch, dass ChatGPT in der "Ich"-Form spricht und immer wieder, auch in EU-Papieren, von "Kooperationen" zwischen Menschen und künstlicher Intelligenz die Rede ist.
Rede man den Menschen ein, dass digitale Identitäten einsichtsfähig und klüger als Menschen sein können, bedrohe das auch die Demokratie, warnte Nida-Rümelin. Basiere diese doch darauf, dass "wir uns wechselseitig etwas zutrauen" und dieses Zutrauen zu einer normativen Verpflichtung führe. Durch die Menschenrechte würde Vertrauen geschaffen und garantiert, dass jede Person Autor bzw. Autorin seines bzw. ihres Lebens sein könne und nicht ein bloßes Instrument ist, "das herumgeschupft werden kann".
Sein Unbehagen in Bezug auf den aktuellen Diskurs über künstliche Intelligenz veranschaulichte der Philosoph mit verschiedenen Beispielen. Nur weil ein digitales System "faszinierend komplex" sei, wie etwa ChatGPT, heiße das noch lange nicht, dass Intelligenz im Spiel sei, bekräftigte er. Niemand komme etwa auf die Idee, einen Taschenrechner als künstliche Intelligenz zu bezeichnen, obwohl das Prinzip das gleiche sei. Ebenso wenig wisse ein Thermostat, welche Temperatur das Zimmer habe, wenn er sich abschalte, sondern reagiere mechanisch auf eine bestimmte Einstellung. Auch Bienen oder Ameisen seien nicht intelligent, unterstrich Nida-Rümelin, auch wenn ihr auf einem genetischen Muster basierendes Verhalten manchmal so wirke. Ein Vertrauen in eine Schi-Bindung sei überdies etwas ganz anderes als etwa Vertrauen in den Partner bzw. die Partnerin.
In diesem Sinn wandte sich Nida-Rümelin gegen eine "Mystifizierung" von künstlicher Intelligenz und hinterfragte die Tendenz, Robotern ein menschenähnliches Aussehen zu verpassen, da dies Missinterpretationen befördere. So habe sich etwa in Japan, wo Roboter in der Pflege eingesetzt werden, gezeigt, dass die betreuten Personen auf der einen Seite zwar froh darüber sind, dass sie - etwa beim Gang zur Toilette - nicht von Menschen angefasst werden. Auf der anderen Seite würden sich viele aber unwohl fühlen, weil sie das Gefühl haben, dass ständig jemand anwesend ist.
Relativ "entspannt" ist Nida-Rümelin hingegen, was die oftmals geäußerte Befürchtung betrifft, dass künstliche Intelligenz zu einem Wegfall von Hundertausenden Arbeitsplätzen führen könnte. Schon bei der Einführung der Automatisierung in der Industrie habe man davor gewarnt, dass Arbeitskräfte überflüssig werden könnten. Das sei nicht eingetreten. Auch die digitale Transformation habe sich nur vorübergehend negativ auf die Beschäftigung ausgewirkt. So habe es zwar in den 1990er-Jahren einen enormen Produktivitätsschub durch den Einsatz von PCs und des Internets gegeben, das sei aber wieder abgeflacht, skizzierte er. Deutschland habe heute eine deutlich höhere Produktivität als die USA, obwohl es den USA im Bereich der Digitalisierung hinterher hinke. Durch künstliche Intelligenz würden zwar Arbeitsplätze verloren gehen und bestimmte Tätigkeiten gar nicht mehr gebraucht, dafür werden aber andere Tätigkeiten stärker nachgefragt werden, glaubt Nida-Rümelin. (Fortsetzung Parlamentarisches Forum) gs
HINWEIS: Fotos von dieser Veranstaltung finden Sie im Webportal des Parlaments.
Rückfragen & Kontakt
Pressedienst der Parlamentsdirektion
Parlamentskorrespondenz
Tel. +43 1 40110/2272
pressedienst@parlament.gv.at
http://www.parlament.gv.at
www.facebook.com/OeParl
www.twitter.com/oeparl
OTS-ORIGINALTEXT PRESSEAUSSENDUNG UNTER AUSSCHLIESSLICHER INHALTLICHER VERANTWORTUNG DES AUSSENDERS - WWW.OTS.AT | NPA