So schnell ging es noch nie. Wenige Minuten, ein paar Worte und einige Klicks sind nötig und schon hat die KI den nächsten Social Media-Post geschrieben. Das Ergebnis kann sich sehen lassen. Zeit gespart hat der Einsatz des Algorithmus auf jeden Fall. Doch wie authentisch kann ein Text sein, den nicht der Mensch, sondern die Maschine verfasst hat? Welchen Einfluss hat der Einsatz von Künstlicher Intelligenz auf unser Selbstverständnis? Und wie sieht eine digitale Identität aus?
Seit der Entstehung von sozialen Netzwerken vor rund zwei Jahrzehnten wurde die menschliche Selbstentfaltung zunehmend ins Digitale verlagert. Seitdem passen die Nutzerinnen und Nutzer ihre Selbstdarstellung und kommunikativen Kulturpraktiken sukzessive den Spielregeln digitaler Plattformen an. Um im digitalen Raum erfolgreich – das bedeutet vor allem: sichtbar – zu sein, muss man den Regeln der Algorithmen folgen, also permanent Content produzieren, Reaktionen generieren und sich um die Ausweitung des Follower-Kreises bemühen.
Diese Entwicklung warf bereits in der Vergangenheit kritische Fragen auf. So etwa – wie der Bonner Philosoph Markus Gabriel es in seinem Buch „Fiktionen“ unter anderem thematisiert – nach der Manipulation der menschlichen Selbstbildproduktion und Verhaltensmuster durch psychometrische Voreinstellungen Sozialer Netzwerke. Gleiches gilt für den Umgang mit informationeller Selbstbestimmung, der Frage nach Authentizität in Online-Beziehungen oder nach den Regeln respektvoller Kommunikation.
Sind wir mehr als die Summe unserer Prompts?
Mit dem gegenwärtigen Siegeszug der generativen KI nimmt die digitale Identitätskreation jedoch schon wieder neue Formen an. Die Selbstmitteilungen und Digitalisate der Menschen können und werden nun zunehmend mit – nun ja: professioneller – Hilfe der generativen KI erstellt. Und das gilt nicht nur für die KI-gestützte Nachbesserung von Bildern. Die Kreation eigener digitaler Identität konzentriert sich zunehmend auch auf die Geschicklichkeit in der Eingabe kurzer Hinweise, der Prompts, für die Profiloptimierung oder für die Generierung der Selbstmitteilungen.
Vor allem die Selbstmitteilungsmöglichkeiten erfahren eine bislang nie dagewesene Perfektion. So hat beispielsweise auch eine bislang wenig eloquente Person nun die Möglichkeit, im Stil von Goethe über ihren vergangenen Urlaub zu berichten oder sich mit KI-generierten Texten politisch zu profilieren. Einerseits kann das als positiver Inklusionseffekt verstanden werden. Für einen Legastheniker beispielsweise stellt generative KI gewiss eine großartige Möglichkeit dar, barrierefrei an öffentlichen Diskursen teilzunehmen. Auf der anderen Seite werfen die mit KI-Kosmetik perfektionierten Selbstdarstellungsmöglichkeiten eine Reihe von neuen kritischen Fragen auf: Welche Rückwirkungen auf das menschliche Selbstbewusstsein hat der zunehmende Perfektionsdruck und damit einhergehende Verlust der Imperfektion? Was bedeutet das für Individualität der Diversität?
Was macht es mit der Fremdwahrnehmung, wenn grammatikalisch und stilistisch beinah perfekte Selbstmitteilungen automatisch einen – berechtigten oder unberechtigten – Verdacht auslösen, von einem KI-Bot generiert worden zu sein? Werden die menschlichen Digitalisate genauso uniform wie die gegenwärtig durch KI generierten, futuristischen Bilder?
Die Gleichzeitigkeit von Nähe und Distanz
Beseitigt die mit der generativen KI perfektionierte (und zum Teil automatisierte) Kommunikation im Sinne von Martin Heidegger womöglich noch mehr Entfernungen zwischen den Menschen, als dass sie Nähe schafft? Kommunikation im digitalen Raum kann zu unterschiedlichen Dimensionen von „Nähe“ und „Distanz“ führen. Einerseits wird die Nähe zwischen den Menschen ausgebreitet, indem man die Möglichkeit hat, sich gegenüber einer sehr großen Menge an Mitmenschen mitzuteilen und die Selbstmitteilungen anderer permanent wahrzunehmen. Andererseits kann man durchaus fragen, inwiefern es tatsächlich „Nähe“ schafft, wenn wir im Netz lediglich synthetische, mit KI-Werkzeugen idealisierte Hochglanzbilder der anderen wahrnehmen. Wenn wir also andere Menschen nicht authentisch erfahren, sondern nur noch als zur Perfektion stilisierte Avatare, führt das eher zu Distanz. Und so entsteht das Paradoxon, dass wir zwar durch die Verfügbarkeit der Kommunikation die Nähe schaffen, gleichzeitig aber durch den Verlust der Authentizität uns voneinander entfernen.
Neben diesen Fragen der sich verändernden Selbst- und Fremdwahrnehmung kommen weitere Herausforderungen hinzu, welche die Nachbildbarkeit zentraler Identitätsmerkmale wie das Aussehen, die Stimme, die Mimik und andere Verhaltensweisen und Charakterzüge betreffen:
- die Veräußerung individueller Identitätsmerkmale, zum Beispiel die Stimme eines Künstlers,
- der Umgang mit Betrug und Manipulationen, zum Beispiel betrügerische Anrufe mit Stimmen bekannter Personen oder auch
- die ethisch sehr heikle Frage nach der Erstellung digitaler Bot-Avatare verstorbener Menschen.
Hier zeigen sich Herausforderungen, die in Zukunft trotz der Einführung der KI-Verordnung unsere Gesellschaft intensiv beschäftigen werden.
Diese mit der generativen KI zusammenhängenden Herausforderungen für die menschliche Identität dürfen jedoch nicht zu einem Kulturpessimismus verleiten. Im Gegenteil – die beschriebene Entwicklung kann auch als eine Chance für das Selbstverständnis des Menschen im KI-Zeitalter begriffen werden. Die KI-Entwicklung fordert uns heraus, sich mit den unserer Gesellschaft zugrunde liegenden Menschenbildern auseinanderzusetzen. Und das ist im Sinne der Selbstvergewisserung der Menschen auch gut so!
Es stellt sich mehr denn je die Frage: Was ist eigentlich typisch menschlich? Inwiefern ist das Verfassen von Textinhalten, das Erkennen von Gegenständen, die Kreation von Kunstwerken, die Komposition von Musik und das Verfassen von Geschichten etwas tatsächlich genuin Menschliches? Was unterscheidet die KI-Imitation grundsätzlich von dem Imitierten?
Der Mensch ist mehr als die Summe digitalisierbarer und generativ reproduzierbarer Merkmale. Er ist ein zum Selbstentwurf fähiges Gesellschaftswesen. Dabei ist es unerheblich, ob man dieses Menschenbild theologisch im Sinne des Renaissancehumanisten Pico dela Mirandola aus der Gottebenbildlichkeit begründet, mit Kant aus der sich aus dem Faktum der Vernunft resultierenden Autonomie oder einfach im Zuge der Verfassungsauslegung durch das Bundesverfassungsgericht als Ausdruck der Menschenwürde und des allgemeinen Persönlichkeitsrechtes. Die Unterscheidung zwischen dem kontingenten, digitalisierbaren „Ich“ und dem mehrdimensionalen (Physiologie, Psychologie, Sozialität, Rationalität, Historizität, Spiritualität u.a.) „Selbst“ des Menschen ist jedenfalls für das Verständnis des Menschen im KI-Zeitalter entscheidend.
Nicht das „Kreiere dich selbst“ sondern das „Erkenne dich selbst“ ist die mit der KI-Entwicklung einhergehende zentrale Botschaft. Die technologischen Errungenschaften auf dem Gebiet der Künstlichen Intelligenz bieten einen großartigen Anlass, über das eigentlich Menschliche nachzudenken. Über das, was die Tiefenpsychologie als das „Selbst“, die Spiritualität und Mystik unterschiedlicher Kulturräume als das „Herz“ oder das man schlicht als die „Seele“ bezeichnet.
Nikolai Horn
Dr. Nikolai Horn ist Senior Policy Advisor beim Think Tank iRights.Lab und Co-Leiter der AG „Digitale Ethik“ des Netzwerkes Initiative D21. Nach seinem Studium der Philosophie arbeitete er am Lehrstuhl des ehemaligen Bundesverfassungsrichters Prof. Dr. Dr. Udo Di Fabio an der Universität Bonn und promovierte mit einer interdisziplinären Arbeit zum Grundrecht der Gewissensfreiheit. Zu seinen Themenschwerpunkten gehören Datenschutz, KI, Data Driven Government und Verwaltungsdigitalisierung.
Perspektivwechsel
Digitale Identitäten werden nicht immer, wie in Sozialen Netzwerken, kreativ und teilweise aufwendig geschaffen. Sie entstehen im Alltag oft nebenbei, manchmal fast schon unbewusst – etwa, wenn man sich ein Profil bei einer Bank, einer medizinischen App oder einem Online-Shop anlegt. Was die Entwicklung „digitaler Identitäten“ für ganz unterschiedliche Branchen bedeutet, haben wir Deloitte-Expert:innen gefragt.