Feuilleton
Merken

Künstliche Intelligenz? Auf den Menschen kommt es an

Künstliche Intelligenz wie ChatGPT zu verbieten wäre moralisch falsch. Jeder sollte sich damit auseinandersetzen, um die Grenzen auszuloten. Ein Gastbeitrag.

 7 Min.
Teilen
Folgen
Die Technologie hält uns einen Spiegel vor, in den wir nur ungern blicken.
Die Technologie hält uns einen Spiegel vor, in den wir nur ungern blicken. © photodisc/getty images

Von Birte Platow

Um es gleich vorwegzunehmen: Dieser Text wurde nicht mit ChatGPT geschrieben, der aktuell wohl populärsten Künstlichen Intelligenz (KI), jenem in der Tat höchst beeindruckenden Large Language Model der Firma Open AI. Der geneigte Leser wird folglich nicht auf den dramaturgischen Überraschungseffekt stoßen, wenn an einem bestimmten Punkt im Text offenbar wird, dass dieser von einer Maschine verfasst wurde statt von einem Menschen.

Aber warum eigentlich nicht, wenn die Maschine schon so schnell scheinbar perfekt formulierte Texte verfassen kann? Die Motive für die Festlegung auf eine rein menschliche Autorenschaft können vielfältig sein. So könnte man annehmen, die Autorin, eine Theologieprofessorin, sei kompetenter als ChatGPT, wenn es darum geht, ethische Aspekte von KI zu beleuchten. Oder vielleicht meint sie von sich, sie sei qua Profession in der Lage, ein breiteres Spektrum an Sprache zu bedienen als eine KI das kann.

Vermutlich sind beide Annahmen falsch und Ausdruck menschlicher Überheblichkeit, die nicht wahrhaben will, dass ein auf perfektionierter Statistik beruhendes Sprachprogramm in der Lage ist, sprachlich und inhaltlich mit hochqualifizierten Fachkräften im Bereich des vermeintlich ursprünglich Menschlichen – etwa der Frage, was richtig und falsch sei – auf Augenhöhe zu agieren. Und doch ist es so: ChatGPT und viele weitere KI getragene Anwendungen können dies: Sie verfassen fundierte Sachtexte, wissenschaftliche Artikel oder Prosa, sie schreiben Predigten, Gedichte und Liebesbriefe, schaffen Kunst und komponieren Sinfonien. Sie tun dies so überzeugend, dass der Turing Test, der offenlegt, ob wir mit einem Menschen oder einer Maschine interagieren, inzwischen eher einem Turing Outing entspricht, bei dem die KI den ahnungslosen Menschen in Kenntnis setzt, dass er es mit einem Computerprogramm zu tun hat, und nicht mit einem Menschen.

ChatGPT kennt seine eigenen Schwächen

Wenn es also weder an inhaltlicher noch an sprachlicher Versiertheit mangelt, könnte man vermuten, die Autorin lehne die KI-Co-Autorenschaft grundsätzlich ab. In der Tat lassen sich vergleichsweise einfach berechtigte Vorbehalte gegen den Einsatz von KI finden. So sind Menschen in der Regel nicht in der Lage, die Prozesse und Ergebnisse, die KIs vollbringen, nachzuvollziehen. Mangelnde Transparenz und Erklärbarkeit von Ergebnissen (mitunter auch falschen und erfundenen) sind daher nicht nur in ethischer Perspektive kritische Punkte. Auch in der Informatik arbeitet man mit Hochdruck daran, Transparenz und Erklärbarkeit zu stärken – unter anderem mithilfe von KIs, die andere KIs analysieren und erklären.

Im Fall von ChatGPT kann man übrigens darauf setzen, dass dieses Programm seine ureigenen problematischen Eigenschaften brav nennt, wenn man nur klug danach fragt. Auch ein weiteres Problemfeld verschweigt ChatGPT nicht (sofern man danach fragt): KIs transportieren Vorurteile, die unter Umständen zu Diskriminierungen führen können – etwa wenn diese Programme Entscheidungsempfehlungen geben, wie dies im Versicherungswesen, in der Personalführung oder der Vergabe von Sozialleistungen an verschiedenen Orten bereits üblich ist.

Dieses Phänomen verschuldet jedoch nicht die Technologie selbst. Die Ursache liegt in den von Menschen in der breiten Masse produzierten Trainingsdaten, die „biased“, also vorurteilsbeladen sind. Die Logik der Technik selbst, die auf Statistik und Lernen durch Verstärkung basiert, profiliert jedoch unbemerkt Vorurteile, macht sie in riesigen Datenmengen und komplexen Rechenprozessen unsichtbar und bringt am Ende unberechtigte Ungleichbehandlungen hervor. In den Niederlanden etwa hatte eine KI bei der Vergabe von Kindergeld Migranten systematisch benachteiligt.

Gleichwohl: Ursächlich sind und bleiben menschliche Vorurteile und Ungleichheiten, die in Daten dokumentiert sind und zum Lerngegenstand wirkmächtiger Technologien werden. Man kann durchaus sagen, dass uns die Technologie einen Spiegel vorhält, in den wir nur ungern blicken. Die Frage ist nun, wie wir darauf reagieren wollen.

Der Einsatz von KI bringt viele Vorteile

Natürlich ist es eine Option, den Einsatz von KIs mit großer Reichweite angesichts der genannten problematischen Aspekte abzulehnen und zu verbieten. Einzelne Länder haben dies für eine kurze Zeit bereits getan. Für bestimmte Funktionsbereiche (Schulen, Universitäten u. a.) diskutiert man auch bei uns über diese Option. Dabei wird jedoch ignoriert, dass es sich bei den meisten KI-basierten Anwendungen um global verfügbare handelt. Verbote in individuellen Ländern werden daher kritische oder unerwünschte Programme nicht stoppen, sondern in vielen Fällen nur dazu führen, dass man den Gestaltungsraum nach den je eigenen Wertvorstellungen abtritt.

Es scheint, als hinke der gesetzliche Rahmen stets hinter den Möglichkeiten neuster Technologien hinterher und könne diese nicht regulieren. Dennoch ist für Europa festzuhalten, dass die hiesigen Datenschutzrechte durchaus eine kritische Marke darstellen – selbst für die großen Player aus dem Silicon Valley. Gleiches gilt für den in absehbarer Zeit zu erwartenden europäischen Artificial Intelligence Act (AIA), der weitreichende und differenzierte Regulierungsoptionen für KI vorsieht.

Es gibt allerdings noch einen weiteren Grund, weshalb die Autorin auch nach gründlicher ethischer Reflexion den Einsatz von KI in vielen Bereichen befürwortet. Es wäre nämlich schlicht sträflich, das große Potenzial dieser neuen Technologie vorschnell und undifferenziert abzulehnen. In Forschung und Entwicklung, in den Bereichen Bildung und Politik, im verantwortungsvollen Umgang mit Ressourcen und Energie und vielen weiteren Bereichen kann und werden die Fähigkeiten von KI zu Durchbrüchen und markanten Verbesserungen beitragen. Dies zu ignorieren wäre zutiefst unethisch.

Birte Platow ist Professorin für Evangelische Theologie an der TU Dresden. Sie forscht zu ethischen und gesellschaftlichen Fragen künstlicher Intelligenz und ist Vorstandsmitglied im sächsischen Kompetenzzentrum für KI Scads.AI. Dort leitet sie den Bereic
Birte Platow ist Professorin für Evangelische Theologie an der TU Dresden. Sie forscht zu ethischen und gesellschaftlichen Fragen künstlicher Intelligenz und ist Vorstandsmitglied im sächsischen Kompetenzzentrum für KI Scads.AI. Dort leitet sie den Bereic © privat

Zugleich dürfen die zuvor genannten Begleitfragen nicht ignoriert werden. Entscheidend ist dabei die sachliche und soziale Eingriffstiefe, die mit den verschiedenen Einsatzoptionen von KI einhergeht. Nichts spricht dagegen, dass sich der Vorsitzende des Taubenzuchtvereins seine Reden von ChatGPT schreiben lässt. Auch der Pfarrer darf sich nach meinem Dafürhalten von ChatGPT bei der Predigt helfen lassen. Wenn die Kosten für ein Anwaltsschreiben sinken, weil die Kanzlei auf automatisch generierte Textbausteine zurückgreift und weniger Arbeitszeit berechnet, wäre auch vielen geholfen – obgleich Juristen das vielleicht anders einschätzen und natürlich einzugestehen ist, dass die Leistung von KIs den Arbeitsmarkt revolutionieren könnte. Ganze Berufszweige könnten verschwinden oder aber ganz neue Aufgabenprofile an Menschen an der Schnittstelle zu KI hervorbringen.

Die unterschiedlichen Einsatzoptionen gilt es differenziert und breit zu diskutieren. Weiter ist kritisch zu prüfen, wo Grenzen einzuziehen sind. Vollautomatisierte medizinische Diagnosen, weitreichende Entscheidungen über einzelne Personen allein auf Basis von Daten, die die Person in bestimmten Zusammenhängen – etwa wirtschaftlichen – repräsentieren, sind keinesfalls unproblematisch, denn sie untergraben ein Kernstück unseres Wertekanons, die Autonomie des Individuums. Zuletzt ist zu fragen, wie dauerhaft oder irreversibel KI-generierte Entscheidungen und Sachverhalte sind.

Eine hoffentlich schöne neue Welt

Augenscheinlich richten sich alle eben genannten Fragen vor allem an uns Menschen. An diejenigen, die jetzt in der Technologie Entwicklung, in Politik, Rechtssystem und Wirtschaft die Rahmenbedingungen für den Einsatz von KI explizit und implizit schaffen. Aber auch jeder Einzelne ist gefragt. Jede und Jeder muss in die Verantwortung gehen – mit einem verantwortungsbewussten Umgang mit Daten und bei der Gestaltung der neuen Schnittstellen von KI und Mensch in Beruf wie Privatleben. Wir müssen uns fragen, wie wir uns zu unserem datengenerierten Spiegelbild verhalten wollen. Wir müssen für uns herausfinden, wie wir die sich uns bietenden neuen Möglichkeiten auch auf der persönlichen Ebene einordnen.

Dieser Text wurde unter anderem deswegen aus rein menschlichem Geist geschaffen, weil er eine Besinnungsübung darstellt – auf das, was wir Menschen können, wie wir trotz punktueller Unterlegenheitsgefühlen im Umgang mit KI heraus selbstbewusst bleiben, motiviert lernen und Gestalter bleiben in einer hoffentlich schönen neuen Welt.

Unsere Autorin Prof. Dr. Birte Platow spricht an diesem Donnerstag auf dem sächsischen KI-Kongress in Dresden. Hier geht es zum Programm und zum Livestream.