Michael Fuchs: Ethische Fragestellungen im Kontext Mensch und KI.

In Kooperation von "Forum Aloisianum" und des Vereins "Freunde der Katholischen Privat-Universität Linz" hielt Michael Fuchs, Professor für Praktische Philosophie/Ethik und Rektor der KU Linz, am 15. Oktober 2025 einen Impulsvortrag zu ethischen Fragestellungen und Perspektiven rund um das Thema "Mensch und KI". Bei der anschließenden Diskussion im Festsaal des Kollegiums Aloisianum am Freinberg standen Entwicklungen in den Feldern Bildung, Wissenschaft und Wirtschaft im Mittelpunkt.

„KI ist in aller Munde. Sie hat tatsächlich in wenigen Jahren fast alle Lebensbereiche erreicht, von Schule bis Wissenschaft, von Medizin bis Militär, von Wirtschaft bis Verwaltung – und jüngst zunehmend auch kreative Arbeitsfelder.“ Mit diesem Befund eröffnete Professor Michael Fuchs seinen Vortrag, den er als Anregung verstand, sich über ethische Fragen, deren Dimensionen und Reichweiten im Zusammenhang mit Künstlicher Intelligenz zu vergewissern. Aus dem Blick in die Geschichte – Konzepte denkender Maschinen begegnen u.a. schon bei Descartes und Leibniz im 17. und 18. Jahrhundert und gewannen mit den Überlegungen etwa von Alan Turing um die Mitte des 20. Jahrhunderts eine wirkmächtige Form – entwarf Fuchs einen Umriss der Begriffe: Was überhaupt heißt „Künstliche Intelligenz“? Und wie ist sie als „Simulation menschlichen Denkens“ zu fassen?

Hier sei die Unterscheidung von Schwacher und Starker KI eine Möglichkeit zur Klärung ihrer Funktionen. Trotz aller dystopischen Diskurse über zukünftige künstliche Superintelligenzen seien es Anwendungen der Schwachen KI, die heute reflektierte Entscheidungen erfordern. Die Digitalisierungsoffensiven der letzten beiden Jahrzehnte haben dem „Winter der KI“, den Phasen stagnierender Entwicklung, unumkehrbar ein Ende bereitet und werfen eine Vielzahl von konkreten ethischen Fragen auf, die wissenschaftlich und gesellschaftlich gründlich diskutiert werden wollen – anders gesagt: einen „Winter der Ethik der KI“ können wir uns angesichts der rasanten Implementierung der KI nicht leisten.

Ansätze und Perspektiven

Ausgehend von Ansätzen, Künstliche Intelligenz im Kontext von „Autorschaft“ zu verhandeln (so in Stellungnahmen des Deutschen Ethikrats), und Initiativen zu gesetzlichen Regelungen (beispielhaft der „EU AI Act“ mit Kategorisierungen nach Risikopotenzialen) schlug Michael Fuchs vor, das Thema aus der klassischen philosophischen Perspektive moralischer Pflichten zu betrachten und so zu Klärungen vorzudringen: Was macht KI mit uns Menschen? Was machen wir mit KI? Und wo sind verbindliche ethische Positionierungen angezeigt?

Mit der Einstiegsfrage, welche moralischen Pflichten wir gegenüber KI-Systemen haben, verschob er dabei herkömmliche Blickrichtungen: Können nicht auch KI-Systeme Träger von Rechten sein? Und wäre – mit Philosophin Janina Loh – ein Kriterium hierfür in der Eigenschaft der „Lernfähigkeit“ zu suchen? Dass der mit KI-Anwendungen potenziell einhergehende Verlust von Beziehungen, oder schlimmer noch: deren Ersetzung durch bewusst täuschende Simulation von Beziehung (etwa mit dem Einsatz humanoider Roboter in der Pflege), eine eminente Verletzung moralischer Pflichten gegenüber (Mit-)Menschen bedeutet, wurde ebenso deutlich wie die Problematik der Differenzierungsverluste bzw. unzulässigen Verallgemeinerungen durch Entscheidungen, die in Systemprogrammierungen immer schon eingeschrieben sind.

Nachdenklich stimmten vor allem die abschließenden Ausführungen von Michael Fuchs: Wie steht es angesichts der KI um die moralischen Pflichten, die Menschen gegen sich selbst haben? Die Auslagerung von gefährlichen oder belastenden Tätigkeiten und die Entlastung von bloß repetitiven Abläufen sei keinesfalls verwerflich – und wohl niemand werde die Verbesserung etwa von medizinischen Diagnoseverfahren in Zweifel ziehen. Aber mit dieser technischen Ermächtigung können auch Entmächtigungen und Kompetenzverluste einhergehen: Was ist, wenn Fähigkeiten nicht weiter geschult werden oder ganz verloren gehen, die immer auch ein Korrektiv dafür sein können, was die KI in ihrer Black Box für uns „ausrechnet“. Einen auch anthropologischen Horizont gewinne das heute, weil wir Menschen uns selbst – gerade auch in dem, wie wir uns als Menschen verstehen – zunehmend in Analogie zu Maschinen modellieren. Diese Operation der Reduktion, die in der Wissenschaft als notwendige Komplexitätsreduktion eine stets mitreflektierte methodisch Entscheidung ist, führt mitten in die Vorstellung der menschlichen Natur selbst – und sei eine bedenkliche Unterschreitung menschlicher Wirklichkeiten.

16.10.2025/RK/HE