Startseite 9 Digitalisierung 9 KI – nicht so überlegen und sicher, wie vielfach gedacht?

KI – nicht so überlegen und sicher, wie vielfach gedacht?

18.10.2024 | Digitalisierung

Ziel eines von drei Mitgliedern der Leopoldina-Fokusgruppe „Digitalisierung“ erstellten Diskussionspapiers ist es, “einen realistischen Blick auf Chancen und Risiken in der Entwicklung und Anwendung generativer Künstlicher Intelligenz (KI) zu werfen – und sich damit sowohl den utopischen Heilsversprechen als auch den dystopischen Warnungen, die die gegenwärtige Debatte prägen, entgegenzustellen.”

In der öffentlichen Diskussion seien schwerwiegende Gefahren für Individuen, Demokratie, Wirtschaft und Gesellschaft noch nicht ausreichend reflektiert. Dazu heißt es im Fazit des Diskussionspapiers:

“Diese Gefahren sind zum Teil in der Funktionslogik der Technologie selbst angelegt – etwa die Nichterklärbarkeit, die Nichtkontrollierbarkeit, die Nichtneutralität und die Nichtobjektivität generativer KI-Technologie; zu anderen Teilen entstehen sie erst in der konkreten Anwendung oder aufgrund des Zusammenspiels zwischen Mensch und Technik in unterschiedlichen Kontexten und organisationalen Rahmenbedingungen – etwa die Verantwortungsdiffusion, die Manipulierbarkeit oder die Täuschung über die Leistungsfähigkeit. Viele dieser Gefahren werden durch den European Artificial Intelligence Act und andere Gesetzeswerke20 nicht oder nicht ausreichend adressiert, sind also gegenwärtig nicht Bestandteil normativer Leitplanken generativer KI-Entwicklung in Deutschland und Europa.”

Das Training jeder generativen KI, die im Rahmen des Deep Learnings mit Daten trainiert wird, findet im kulturellen Umfeld der Entwickler und mit deren Daten, Ziel- und Wertvorstellungen statt. Damit ist jede generative KI “stets das Abbild der ihr zugrunde liegenden Trainingsdaten sowie der Ziele und Zwecke ihrer Entwicklung, die in ihre Funktionslogik untrennbar eingewebt sind. Diese aber sind weder der KI selbst noch den entsprechenden Anwendungssystemen anzusehen und entziehen sich somit der Kontrolle und Regulierung durch herkömmliche Verfahren, Institutionen und Normen. Wer generative KI verwendet, rezipiert Informationen auf Basis spezifischer Wertvorstellungen anderer, ohne diese in der Regel bewusst zu reflektieren. Diese Tatsache öffnet den Raum für Täuschung und Manipulation unter dem Deckmantel einer scheinbar überlegenen und vermeintlich neutralen, objektiven Technologie. Damit aber werden die Grundfesten unserer Weltwahrnehmung und unserer sinneserfahrungsbasierten Urteilskraft nachhaltig erschüttert. Text und Bild verlieren schließlich ihre Beweiskraft.”

Maßnahmen zur Schadensvermeidung gefordert

Vor dem Hintergrund laufender Diskussionen um die Entwicklung vertrauenswürdiger KI in Europa und eines damit verbundenen Wettbewerbsvorteils weisen die Autorinnen darauf hin, dass es notwendig sei, Maßnahmen zur Schadensvermeidung zu forcieren.

Das Diskussionspapier wurde von der Philosophin Prof. Dr. Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg, der Rechtswissenschaftlerin Prof. Dr. Indra Spiecker gen. Döhmann, Professorin für das Recht der Digitalisierung an der Universität zu Köln, und Leopoldina-Mitglied Prof. Dr. Ulrike von Luxburg, Informatikerin und Professorin für Theorie des Maschinellen Lernens an der Eberhard Karls Universität Tübingen, erarbeitet.

Das Diskussionspapier hier einsehen und/oder herunterladen »

Quellen: pi Leopoldina, 17.10.2024 |Diskussionspapier “Generative KI – jenseits von Euphorie und einfachen Lösungen”

Loading...