Medienethiker: Sorgenvoller Blick auf KI überwiegt
Ist es sinnvoll, KI zu begrenzen und ihr Regeln zu geben? Mit einem "Unentschieden" antwortet die aktuell am häufigsten befragte Künstliche Intelligenz, der Chatbot ChatGPT auf diese Frage. Für eine Einhegung durch internationale Regeln würden ethische Probleme, Sicherheitsfragen sowie die Frage nach der Verantwortung im Fall von Schäden durch KI sprechen. Dagegen die Tatsache, dass eine Regulierung zugleich Innovation abwürgen könnte, dass KI auch zu sehr nützlichen Dingen eingesetzt werden könne und letztlich "die Autonomie von KI-Systemen eingeschränkt" werde. Als wäre die KI eine Person, deren Autonomie es zu schützen gelte...
Jenseits solcher kleinen Experimente und Spielereien, die zweifellos eine große Faszination ausüben, befassen sich zahlreiche Medienethiker aktuell mit der Frage, ob es nicht ein internationales Set an Regeln braucht, um Künstliche Intelligenzen einzuhegen. Zuletzt hat die Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE) Punkte wie Sicherheitsrisiken, Hatespeech und Medienpluralismus benannt, in denen KI-Systeme im Bereich der Medien und der Öffentlichkeit eine besondere Herausforderung darstellten. Der Wiener Medienethiker Prof. Alexander Filipovic hat dazu in einem Beitrag für die "Furche" (27. April) ausgeführt, was dies konkret bedeutet.
Hatespeech und Überwachungskapitalismus
Durch Fake-News-Bots könnten verbrecherische Staaten andere Staaten in ihren demokratischen Prozessen stören. Wenn durch diese "neue Form von Cyberangriffen" öffentliche Meinungsbildungsprozesse empfindlich beeinträchtigt werden, trage das zur Destabilisierung von Gesellschaften bei. Auch Angriffe auf mediale Infrastrukturen, etwa Datenbanken von Zeitungen oder die Sendetechnik des Rundfunks durch KI-Systeme, seien denkbar. Geschürt werden könnte damit auch Hassrede, die "auch ohne KI schon eine Seuche" sei: "Zwar kann KI auch helfen, Hassrede durch automatische Moderation in Foren zu unterbinden, aber KI-Systeme können Hassrede auch automatisch generieren und zur Störung von konstruktiven politischen Debatten ausspielen."
Die OSZE habe schließlich auch auf die durch KI geförderte Veränderung des Geschäftsmodells der Medien hingewiesen: Es sei eine Form von "Überwachungskapitalismus", wenn Medien immer mehr nicht nur mit gut recherchierten Informationen handeln würden, sondern mit den Daten ihrer Leserinnen und Leser, die sie auf ihren Webseiten und in Social Media sammeln. Und Personalisierung-Algorithmen würden Leser nur mit dem konfrontieren, was sie mögen und kennen - für Filipovic ein Widerspruch zur Idee von demokratischer Meinungsbildung. Zur Debatte stehe damit auch die Macht von Technologieunternehmen.
Keine Moral-Maschine
Ein wesentlicher Unterschied zwischen menschlicher und maschineller journalistischer Produktion bestehe außerdem in einem moralischen Impetus, hatte Filipovic an anderer Stelle in einem Text für die Freiburger "Herder-Korrespondenz" (März) betont. "Von Moral weiß natürlich auch ChatGPT, aber nur, weil die Maschine Texte kennt, die Moral zum Gegenstand haben. Ein moralisches Urteil ist ihr nicht möglich". Menschen könnten dagegen Leid und Ungerechtigkeit wahrnehmen und Ideologie aufspüren. Es sei sehr unsicher, dass diese Kreativität auch maschinell simuliert werden könnte.
Ein wesentlicher Unterschied zu Medienschaffenden sei, dass eine Maschine keine Verantwortung in einem anspruchsvollen Sinne übernehmen könne. "Journalisten rechnen dauernd damit, sich für ihr Tun rechtfertigen zu müssen. Warum die eine Geschichte und nicht eine andere? Warum das Foto aus dem Erdbebengebiet, das Leid und Tod direkt zeigt? Warum wurde die Nationalität des mutmaßlichen Verbrechers nicht genannt?", so der Ethiker. Man werde sich an automatisch erstellte Inhalte gewöhnen. "Aber wenn es um Politik, Rechte, Menschenwürde, Machtkritik, Gerechtigkeit und Verletzlichkeit geht, benötigen wir die natürliche, mit Emotionen und Engagement verbundene Intelligenz verantwortlicher Menschen - die gut mit KI-Systemen zusammenarbeiten können", zeigte sich Filipovic überzeugt.
"Technik ist niemals neutral"
Hinter diesen teils sehr konkreten Anwendungsfragen steht für Filipovic eine weitere, deutlich fundamentalere Überzeugung, die auch von Papst Franziskus geteilt und immer wieder betont wird: Jene, dass Technik an sich "niemals neutral" ist und daher eines wachsamen Auges bedarf. "Wie können wir sicherstellen, dass Technik nicht zu einem Herrschaftsinstrument einiger Weniger wird oder Technik sich als Herrschaftsideologie verselbstständigt?", fragte Filipovic zuletzt in einem Essay in der Zeitschrift "miteinander" (Ausgabe 3/4). Hier sei die Politik gefragt - diese müsse Regeln und Vorgaben erlassen. "Besonderes Augenmerk verdienen dabei jene, die hilflos sind, die der Macht und Prägekraft der Technik nicht die eigene Autonomie und Kreativität entgegensetzen können", so Filipovic unter Verweis auf entsprechende Passagen in der Enzyklika "Laudato si" von Papst Franziskus.
Ist es also sinnvoll, KI zu begrenzen und ihr Regeln zu geben? "Letztendlich ist es eine komplexe Frage, wie man mit KI umgehen und welche Begrenzungen und Regeln angemessen sind. Es bedarf einer ausgewogenen Diskussion und Abwägung der verschiedenen Aspekte, um angemessene Richtlinien und Regulierungen für den Einsatz von KI zu finden." - So lautet die ausweichende Antwort von ChatGPT. Medienethiker Filipovic ist da wohl deutlicher. Bei allen Potenzialen - es bleibt eine Grundsorge, die in der Grundüberzeugung wurzelt, dass Technik an sich "nie neutral" ist.
Quelle: kathpress