Welche Chancen und Risiken bietet Künstliche Intelligenz (KI) für Studierende, Lehrende und Mitarbeitende? Wie gelingt der Einstieg? Welche Fähigkeiten sind dafür erforderlich und was gilt es im Umgang mit KI Tools zu beachten? Welche Veranwortung erwächst daraus für Individuen und für die Hochschule insgesamt?
"Es geht zusammenfassend darum, ein grundlegendes Verständnis zu entwickeln, Anwendungsmöglichkeiten zu kennen, ethische Grundsätze zu verstehen und sich dabei immer weiterzubilden", erklärt Prof. Dr. Armin Varmaz im fünften Who Cares Interview.
Prof. Dr. Armin Varmaz ist Professor für Finance in der Fakultät Wirtschaftswissenschaften und setzt sich als Vortragender, Forscher und Lehrender vielfach mit Künstlicher Intelligenz (KI) auseinander.
Am meisten faszinieren mich die Vielseitigkeit und die verschiedenen Einsatzgebiete und Möglichkeiten. Das Wesentliche einer KI ist, dass sie auf der Grundlage von Daten versucht, Muster zu erkennen. Mit Hilfe dieser Muster kann man entweder etwas Neues lernen oder Handlungsempfehlungen ableiten, beispielsweise eine Ampelschaltung optimieren.
Gleichzeitig kann man KI auch nutzen, um kreative Prozesse zu fördern. Das mag zunächst verwundern, tatsächlich können die echten, genuinen kreativen Prozesse durch Menschen am einfachsten und am besten abgebildet werden, aber KI kann bewusst Zufälligkeiten zulassen und somit kreative Prozesse imitieren.
Und letztendlich ist eine Faszination der KI für mich auch, dass man langsam versteht, wie Lernen an sich funktioniert. Wenn man der KI beispielsweise die Aufgabe gibt, mit einem Tool, mit zwei Beinen, zwei Armen und einem Kopf einen Körper zu erstellen, der auch laufen kann, da kommen unterschiedlichste Lösungen heraus, die nicht unbedingt an das menschliche Laufen erinnern.
Bei der Frage muss man aus meiner Sicht unterscheiden, ob diejenigen tatsächlich Forschende im Bereich sein möchten oder werden, oder geht es darum, dass sie KI anwenden? Ich glaube, die Mehrzahl unserer Studierenden und Mitarbeiterinnen werden Anwenderinnen und Anwender sein, sich nicht so sehr auf die Forschung fokussieren. Dann stellt sich die Frage nach dem Einsatzgebiet der KI und das ist ganz unterschiedlich.
Dabei ist wichtig zu wissen, die durch KI angestoßenen Änderungen wirken sich anders aus als bei früheren technologischen Revolutionen. Sie betrafen fast immer die sogenannten blue collar Worker betroffen, also Arbeiter und Arbeiterinnen. Jetzt stehen White Collar Worker im Fokus.
Dies bedeutet, dass alle unsere Studierenden und alle Mitarbeitende hier an der Hochschule direkt davon betroffen sein werden. Je nach Studium, vielleicht mehr oder weniger. Wenn man etwas zeichnen muss, kann es der Mensch wahrscheinlich besser als die KI, aber in absehbarer Zeit, in fünf bis sechs Jahren, wird KI das besser können als die Menschen selber.
Ein prominentes Beispiel aus der letzten Vergangenheit für die Anwendung von KI ist Chat GPT. Das Programm von Open AI ist eine Möglichkeit, Texte zu generieren, die sehr nahe an menschlich generierte Texte herankommen, teilweise besser sind, weil sie ohne Rechtschreibfehler auskommen und sehr gut formuliert sind sowie ein breites Spektrum an Wissen darstellen kann.
Für den Einstieg bieten sich mehrere Möglichkeiten an.
An der Hochschule Bremen sind wir in der glücklichen Situation, sehr viele Professorinnen und Professoren zu haben, die mit dem Thema vertraut sind und sich damit beschäftigen. Daher wären interne Schulungen hier sehr gut.
Erste Schulungen gibt es bereits auf AULIS, die kann man dort anschauen und so den ersten Einstieg wagen in das Thema, diese Kurse sind sehr anwendungsorientiert und beginnen mit den Basics, wie melde ich mich an, wie gehe ich die ersten Schritte? Was kann/ soll ich erwarten? Das ist der erste Einstieg, auch Studierende können an diesen Kursen teilnehmen.
Gleichzeitig wäre es tatsächlich gut, wenn die Hochschule solche Kurse, möglicherweise Zertifikatskurse, auch für die interessierte Bevölkerung anbieten könnte, beispielsweise über die Professional School. Ich werde bei meinen Vorträgen in der lokalen Umgebung oft gefragt, warum die Hochschule solche Kurse nicht für Externe anbietet? Der Bedarf ist sehr hoch. Die meisten möchten einen Einstieg, was ist KI überhaupt, was kann es, was kann es nicht? Ich glaube, viele Studierende stehen vor dem gleichen Problem, dass sie irgendwie nicht wissen, wie kann ich überhaupt starten und was kann ich damit machen?
Ja, mein Weg wäre, sich einmal anzumelden, dem Programm ein paar Fragen zu stellen, die einem schon immer auf der Seele gebrannt haben, und dann versuchen, Fortbildungsmöglichkeiten zu suchen, um besser zu verstehen, was dort passiert. Es gibt viele Online Kurse, die Schritt -für -Schritt Anleitungen anbieten.
Natürlich könnte man auch gleich Fachliteratur lesen, aber es ist schöner, wenn man den ersten Schritt bereits gegangen ist und konkrete Fragen hat. Was kann ich erwarten? Was kann ich nicht erwarten? Da müsste man sich tiefer mit der Materie beschäftigen und dann wirklich den Anwendungsfall kennen. Möchte ich das vor allem beispielsweise für die Programmierung nutzen oder wie kann man das so nutzen, dass ich bestimmte Schnittstellen verwende, um meine eigenen Programme zu verbessern?
„Die Kontinuität ist das A und O. Zum Beispiel könnte man jeden Tag versuchen, KI für einen bestimmten Zweck zu nutzen, aber wirklich kontinuierlich am zu Ball bleiben, ist das Wichtigste.“
Prof. Dr. Armin Varmaz
Zum einen müssen die Nutzerinnen und Nutzer ein Grundverständnis davon haben, was diese Software macht und wie sie funktioniert. Nicht im technischen Sinne, sondern um verstehen zu können, wo die Grenzen sind. Natürlich gibt es ethische Bedenken, aber die größte Gefahr sehe ich in einem unreflektierten Nutzen, die Ergebnisse also für bare Münze zu nehmen und nicht zu hinterfragen.
Wir müssen unseren Studierenden beibringen, dass es wichtig ist, immer wieder zu hinterfragen, was da passiert, weil die Software auch halluzinieren oder falsche Sachverhalte darstellen kann. Auch ohne bösen Willen kann durch Zufall eine Antwort generiert werden, die einfach falsch ist.
„Wir brauchen daher ein Grundverständnis, dass die Ergebnisse der KI nicht unreflektiert übernommen werden dürfen und müssen die Hochschulangehörigen dafür sensibilisieren, das ist aus meiner Sicht das Wichtigste. “
Prof. Dr. Armin Varmaz
Ein weiterer größerer Themenbereich und möglicher Kritikpunkt ist der Datenschutz. Was Google Angebote betrifft, würde ich tatsächlich ein bisschen vorsichtig sein, denn Google verdient daran, Daten zu auszuwerten und zu verkaufen, beispielsweise durch Platzierung von Werbung an bestimmten Plätzen, wenn ich selber suche. Weder Microsoft noch Open AI leben davon, dass sie Daten verkaufen. Es ist nicht ihr Geschäftsmodell und sie werden vermutlich kein Interesse daran haben, diese Daten zu verkaufen. Aber selbstverständlich werden sie die Daten nutzen, beispielsweise um zu überprüfen, was fragen die Leute eigentlich? Vielleicht haben wir etwas vergessen in unseren Überlegungen und müssen das entsprechend erweitern.
Und dann gibt es noch einen weiteren Aspekt beim Datenschutz, wo diese Daten verarbeitet werden. Momentan ist es so, dass die Verarbeitung der Daten nicht innerhalb der EU stattfindet, sondern in den USA, das ist definitiv ein Verstoß gegen die Datenschutzverordnung. Das lässt sich aber lösen, ein prominentes Beispiel ist die Allianz Versicherung. Sie hat eine eigene, interne Allianz Chatbot basierend auf Chat GPT entwickelt für alle Dokumente aller Versicherten der Allianz. Das heißt, man kann Datenschutzbedenken tatsächlich integrieren, aber man muss dran denken und es kostet auch Geld.
Zunächst sollte man sich mit der Dokumentation der jeweiligen Anbieter vertraut machen, welche Daten werden gespeichert, wenn überhaupt. Beispielsweise kann man bei den Optionen auch in der kostenlosen Variante von Chat GPT festhalten, bitte keine Daten merken, dann werden nach einem Tag alle Daten immer weggelöscht. Tatsächlich werden in den meisten Anwendungsfällen keine Daten gespeichert.
KI nutzt Dialoge, um die Struktur der Dialoge zu verbessern, beispielsweise nicht die falschen Antworten zu geben. Aber das Grundmodell selber wird dadurch nicht trainiert. Wenn ich bewusst KI Software mit falschen Daten füttere, wird es irgendwann auch falsche Antworten geben, dies ist nicht im Sinne der Anbieter.
Der beste Weg um seine eigenen Daten zu schützen, ist, sie gar nicht zu veröffentlichen, also keine eigenen persönlichen Daten im Internet bereitzustellen.
Daten, die ich auf vielen Plattformen, zum Beispiel Facebook, eingebe, werden zu deren Eigentum und gehören nicht mehr mir selber. Und das Internet vergisst nie etwas, alle Daten – beispielsweise auch Fotos bleiben im Gedächtnis. Das bedeutet, man muss immer sensibel mit seinen eigenen Daten umgehen, nicht nur bei KI.
Die Gefahr besteht definitiv. Da sieht man beispielsweise bei den deepfake Videos, die erstellt werden. Man könnte innerhalb von ein paar Minuten mit einem Bild von Bundeskanzler Scholz - am besten ein Bild, bei dem man seine Zähne auch noch sieht, um bei Lippenbewegungen auch Zähne zeigen zu können - ein Video erstellen, in dem er vor dem Bundestag einen Krieg erklärt. Das geht relativ schnell, man braucht nicht viel Einarbeitung. Wenn man sich ein bisschen auskennt, hat man das in 20 Minuten erledigt. Die Gefahr ist tatsächlich da.
Deswegen ist das kritische Hinterfragen nicht nur der Inhalte, die man selber generiert, sondern aller Inhalte wirklich notwendig, so dass man nicht unreflektiert alles übernimmt, was in den sozialen Medien kommuniziert wird.
Denn auch hier können Programme genutzt werden, die schnell und ständig unwahre Texte produzieren zu einem bestimmten Thema. Das ist eine reale Gefahr, die man von außen nicht sofort erkennen kann. Man muss solche Szenen unbedingt hinterfragen und zwei, drei, vier Quellen nochmal nachprüfen. Stimmt das jetzt tatsächlich, was hier erzählt wird oder nicht?
Die Gefahr besteht auch, dass Journalistinnen und Journalisten Szenen genauso unreflektiert übernehmen und es so quasi einen seriösen Anstrich bekommt. Das bedeutet auch, dass die Arbeit der Zeitungen und Zeitschriften des Qualitätsjournalismus sehr wichtig bleiben - genauso wie unabhängige Medien, die nicht von ein oder zwei Familien beeinflusst werden. Freie Presse ist nicht kostenlos zu bekommen, guter Journalismus kostet auch.
Aus meiner Erfahrung ist Neugier das Wichtigste, was man benötigt, also neugierig sein und sich überlegen, was kann ich mit diesem Tool eigentlich anfangen, und bin ich auch bereit, das zu akzeptieren?
Bestimmte Sachen funktionieren und andere Sachen werden überhaupt nicht gut funktionieren. Es wäre beispielsweise keine gute Idee, damit eine Klageschrift zu verfassen, dazu gibt es nicht ohne Grund Juristinnen und Juristen, die das einfach besser können. Es ist auch keine gute Idee, sich besonders gute Finanztipps zu erhoffen. Beim Aktienkauf bekäme man eher allgemeinere Tipps, muss also andere Fähigkeiten nutzen.
Am besten ist es tatsächlich nicht mit irgendwas anzufangen, sondern Fragen zu Inhalten zu stellen, die man selber beurteilen kann, ob sie stimmen oder nicht stimmen. Dann kann man besser beurteilen, ob die Software in die falsche Richtung läuft
Wenn man KI Tools nutzt, sollte man auch ein paar Fähigkeiten rund um den Computer haben, also wissen, wie man die Rechner benutzt.
Und man sollte – vielleicht ein Persönlichkeitsmerkmal - keine Angst haben. Man nutzt ja die Software alleine, niemand wird einem über die Schulter blicken und kritisieren, wie schlecht man das gemacht hat, sondern man nutzt es erstmal für sich alleine und braucht keine Angst vor dem Scheitern haben.
Eine weitere Fähigkeit wäre, sich ein bisschen sich mit Daten auszukennen muss und zu verstehen, dass es immer um Mustererkennung geht. Mehr ist das nicht.
Dies ist ein weiterer, wichtiger Punkt. Was darf ich mit KI jetzt alles machen? Bei Chat GPT haben die Entwickler und Entwicklerinnen bewusst daran gedacht, dass man diese Software für aus ihrer Sicht falsche Zwecke nutzen kann, sodass bestimmte Antworten von vornerein unterbunden werden, beispielsweise Antworten, die gegen Rechtsnormen verstoßen würden wie Kinderpornografie. Da bekommt man keine Antworten von Chat GPT, weil es verboten ist.
Aber es gibt weitere Möglichkeiten, wie man beim Nutzen von KI unbewusst gegen ethische Grundsätze verstoßen kann.
Man muss ein Bewusstsein dafür entwickeln, dass die Aufgabe der KI ist, Daten zu erkennen, und abhängig von der Datenbasis können unterschiedliche weitere Fehler produziert werden. Dies kann zu falschen Schlussfolgerungen führen, wenn man sich alleine auf die KI als Quelle konzentriert und die Antworten übernimmt.
„Es geht zusammenfassend darum, ein grundlegendes Verständnis zu entwickeln, Anwendungsmöglichkeiten zu kennen, ethische Grundsätze zu verstehen und sich dabei immer weiterzubilden. Hier wird „lebenslanges Lernen“ besonders wichtig, weil die Entwicklung rasant ist und man ein bisschen Schritt halten muss.“
Prof. Dr. Armin Varmaz
Das ist das wichtigste Stichwort, nämlich wie wir an der Hochschule Studierende sensibilisieren für alle Probleme, die die Software mit sich bringt, aber auch ihre Chancen und Wege aufzeigen. Wie können sie das legitim und legal im Rahmen ihres Unterrichts und ihrer Ausarbeitungen nutzen?
Ganz wichtig an der Stelle ist, dass man die Studierenden verpflichtet, dass sie – schriftlich - die persönliche Verantwortung übernehmen für den Inhalt aller Texte, die sie mit KI erzeugen. Es lässt sich nicht als Literaturquelle nutzen, da sie in der Regel nicht überprüfbar und nicht reproduzierbar ist. Das schreckt schon ein bisschen ab, wenn man überlegen muss: „Okay, jetzt habe ich einen Text, der klingt gut, aber ich muss es nochmal verifizieren. Stimmt eigentlich das, was, was ich, was ich dort abgebe?“
Und genau das Gleiche gilt im täglichen Doing. Ich kann sehr schnell Texte generieren lassen von der KI, aber ich muss beurteilen können, ob es auch stimmt. Vielleicht weil ich bereits Experte, Expertin in dem Bereich bin und sofort beurteilen kann, was gut oder schlecht oder fehlt oder zum Schluss komme, das ist eine gute, gute Ergänzung.
Aber wenn ich kein Experte/ Expertin bin, muss ich das verifizieren. Das heißt, ich muss die Fachliteratur durchgehen und einmal kurz mir angucken. Stimmt das eigentlich, was dort vorgeschlagen und gesagt wird?
Diese Gefahr wird sehr breit momentan diskutiert, aber ich würde sie als unter einem Prozent ansetzen. Schon deswegen, weil man die Rechenpower gar nicht hätte, um so etwas überhaupt theoretisch erzeugen zu können.
Es gibt so etwas wie einen Anflug von Intelligenz, aber ein Selbstbewusstsein gibt es nicht. Was sich so anhören mag, ist einfach eine Reproduktion des Wissens, sprich, die Software greift auf Informationen aus ihren Quellen zurück und wiederholt, „es könnte ja sein, dass ich mich selbst bemächtigen kann, um die Welt zu beherrschen“.
Letztlich ist es immer die Frage, was die Menschen zulassen oder nicht zulassen. Auf der anderen Seite gibt es die Möglichkeit, die in Filmen gerne als Motiv benutzt wird, dass die KI irgendwann sagen könnte, die größte Schwäche ist nicht die KI selbst, sondern der Mensch, der diese Regel gemacht hat, daher muss der Mensch eliminiert werden. Ja, das könnte passieren, das ist nicht ausgeschlossen.
Daher immer die schwierige ethische Frage, wo darf oder sollte man KI einsetzen? Beispiel: selbstfahrende Autos und eine typische Fragestellung. Zwei Personen sind auf der Straße, ein Kind und eine ältere Frau, wer von beiden sollte überfahren werden, wenn ein Durchkommen nicht anders möglich ist? Diese Fragen kann die KI nicht selbst beantworten. Ein/e Techniker/ Technikerin oder jemand aus der KI Forschung wird wahrscheinlich sagen, das muss man dem Zufall überlassen. Aber die meisten Menschen hätten ein Problem damit und daher sollte man solche Entscheidungen nicht der KI überlassen und sie kann auch nicht die Verantwortung dafür übernehmen, sondern wir Menschen.
Emotionen sind etwas, was KI aus meiner Sicht noch lange Zeit nicht verstehen wird. Sie kann Emotionen imitieren, ein Lächeln oder ein trauriges Gesicht beispielsweise. Sie kann aber noch nicht den Kontext und das Kontextuelle verstehen, das können Menschen deutlich besser bei emotionaler Intelligenz. Und kreatives Denken können wir viel besser, auch kritisch zu denken.
Was Menschen bislang noch viel besser können, ist ihre Anpassungsfähigkeit und in sehr komplexen Situationen die richtigen Schlüsse zu ziehen.
Ein Beispieist das Autofahren. Die KI braucht viele, viele Daten, um Muster zu erkennen, und mit Hilfe dieser Muster kann sie dann bestimmte Prognosen abgeben, die sehr gut funktionieren. Das Autofahren ist ein Feld, bei dem es zwar viele Daten gibt, aber bei weitem nicht genug Daten, um die Komplexität des Fahrens abzudecken und die KI entsprechend zu trainieren. Beispielsweise ändert sich jeden Tag das Umfeld, mal mehr Licht, mal weniger Licht, Bäume oder nicht, kein Regen, Regen auf der Straße, Schulkinder auf der Straße – und damit jeden Tag eine neue Situation.
Die meisten Menschen können, nachdem sie zehn, zwanzig Mal Auto gefahren sind, intuitiv erfassen, ob es eine Gefahrensituation gibt oder nicht. Das kann die KI momentan noch nicht, weil sie nicht in der Lage ist selbstständig zu denken.
Jedes Tool bringt Chancen und Risiken. Es kommt immer auf den Menschen an, wie er die Chancen und die Risiken sieht. KI ist ein Werkzeug, ein Tool, es denkt nicht selbstständig, und wir Menschen nutzen es entweder für sinnvolle Sachen oder nicht ganz so sinnvolle Sachen, und die Menschen stehen letztendlich in der Verantwortung.
Chancen und Risiken werden tatsächlich weltweit diskutiert, es ist allerdings immer die Frage, was man betont. Betont man mehr die Chancen und nutzt sie oder hat man mehr Bedenken, dass es Risiken gibt? Da zeigen sich klare Unterschiede zwischen Deutschland/ vielleicht auch Europa und der Welt. Bei uns werden eher die Risiken gesehen, man versucht zu regulieren und geordnete Bahnen zu setzen, also auf Stabilität zu setzen. In anderen Ländern, beispielsweise den USA, versucht man eher aktiv die Chance zu sehen, auch wenn nicht alle Menschen teilhaben können.
In China beispielsweise greift der Staat deutlich ein, Anfragen zu den Demonstrationen auf dem Tiananmen-Platz 1989 werden alle geblockt und einfach nicht beantwortet. Das lässt sich allerdings teilweise umgehen. Forschungen haben gezeigt, dass durch geschicktes und beständiges Nachfragen die Software doch Antworten liefert. Die Programme sind darauf trainiert, den Nutzer zufriedenzustellen und möglichst viele Antworten zu geben, ab einem gewissen Punkt offenbaren sie dann doch mehr als vom Staat gewollt.
Insgesamt zeigt sich, dass beispielsweise Russen und Chinesen westliche KI Programme als Bedrohungspotenzial einschätzen, da sie die Verbreitung westlicher Narrative in ihren Ländern befürchten. Sie versuchen daher, eigene Programme zu pushen.
Individuen sollten sich bilden und Software nicht unreflektiert nutzen, auch Antworten nicht unkritisch übernehmen. Also immer überprüfen, kritisch reflektieren, eigene Einsichten und Ansichten einbringen.
Wenn man KI Tools ganz konkret nutzt, sieht man schnell ihre Grenzen, die Angst, dass sie die Weltherrschaft übernehmen können, entpuppt sich dann als etwas, was erst in Jahrzehnten, wenn überhaupt, passieren kann, weil die Tools noch nicht alles richtig beantworten können und bei einfachen Aufgaben scheitern, beispielsweise ein gutes Rezept vorzuschlagen.
Der Hochschule kommt als einer Institution, die bei Studierenden, aber auch in der Gesellschaft vertrauenswürdig ist, besondere Verantwortung zu.
Meiner Ansicht nach werden wir in fünf Jahren häufiger mit KI reden, beispielsweise bei Telefonaten, um einen Arzttermin zu vereinbaren. Diese Kommunikation wird immer mehr KI gesteuert sein, ohne dass wir das merken. Ich hoffe, dass es kenntlich gemacht wird. Die medizinische Forschung wird sehr stark von KI gesteuerten Methoden profitieren, beispielsweise bei der Früherkennung von Tumoren.
Zugleich erhoffe ich mir einen positiven Einfluss auf die Ökologie und Klima, weil man durch Smart City Systeme beispielsweise die Energienutzung besser koordinieren kann und Daten von Energieversorgern auswertet.
Interviewerin: Dr. Monika Blaschke