Looking like a human cat
Wann hat das angefangen? Dass wir uns nicht mehr sicher waren, dass mit den Gesichtern, denen wir auf den Screens und auf den Straßen begegnen, alles in Ordnung ist. Dass sich manchmal ein leicht schizoides Gefühl einstellt, wenn wir ein Gesicht anschauen; in einem Film, in einem Post, auf der Straße. Denn die Bildbearbeitung oder die Gesichtsveränderung findet neben dem inzwischen ja fast schon guten alten Photoshop – eine Desktop-Anwendung, offline! –, der Werkstatt für Bilder, längst in unzähligen Apps und in neuronalen Netzen statt. Bilder werden nicht mehr stellenweise gestempelt oder mit dem Zauberstab bearbeitet, obwohl die Metapher des Magischen weiterhin herumschwirrt, etwa wenn Telekommunikationsunternehmen damit werben, dass 5G „Magisches“ auszulösen imstande sein soll, wenn es denn erstmal installiert ist und läuft. Nein, Gesichter bekommen ein automatisches Makeover, das von Algorithmen zur Gesichtserkennung erledigt wird. Noch stranger als das immer schon strange Wort photoshoppen und das noch ärgere gephotoshopt.
How dare you. Ziemlich viele der 43 Gesichtsmuskeln, die sie hat, verformen das Face der 17-jährigen Klimaschützerin vor den laufenden Kameras der Weltöffentlichkeit, gesteuert von Verzweiflung, Wut und ganz offensichtlich Verachtung. Der alternative Nobelpreis war ihr nicht für ihr sagenhaftes Desinteresse verliehen worden. Le mépris. Ihre Rede im großen Saal der Vereinten Nationen in New York hat die Intensität eines elisabethanischen Dramas. Solche Gesichter sieht man sonst auf anderen Bühnen, und dort haben sie meist einen starken Gegner, wenn auch nicht mehr lange. Personal Coach Hannes Rehbein merkt zu Mimik der Wut an: „Ein Mensch, der wütend aussieht, meint es vermutlich ernst und das Gegenüber sollte sich überlegen, ob es versucht die Situation zu entschärfen, zu fliehen oder zu kämpfen“. Was ist mit einer vierten Option: die Situation im Sinne der 17-jährigen Klimaschützerin zu beantworten? Die Regierenden der Industrienationen sind angeklagt. Sie alle sind gemeint. Und mit einem Mal wirkt es anachronistisch, dass sich so viel mimischer Ausdruck in einem Gesicht abspielt. Wie kommt das? Während die einen über-performen, ihre Gesichter stellvertretend für eine neue Generation von Umweltaktivisten verzerren, um die Mächtigen zu erschrecken, wollen die anderen ultraglatt in die digitale Masse eintauchen, maskenhaft perfekt aussehen, auf jedem Selfie und „in real life“.
BEVOR DIE ERSTEN FÄLTCHEN KOMMEN
Heute ist Faceforming ein Geschäft, eine gängige Praxis, etwas, was nicht nur in Praxen für plastische Chirurgie gegen Geldscheine eingetauscht wird. Faceforming begann in den Zehner Jahren mit Benita Cantieni. „Mimikfalten werden schnell gemildert und nachhaltig geglättet“, schreibt der Verlag, der das Faceforming-Buch verlegt; durch Gesichtsmuskeltraining, das geht tatsächlich, das ist Arbeit an sich selbst, eine mühsame Arbeit, die zu mehr Schönheit und Ausstrahlung führen soll, Selbstoptimierung also. Doch aus irgendeinem Grund hat sich diese Technik nicht durchgesetzt. Stella Marie Hombach berichtet in der Frankfurter Allgemeinen Sonntagszeitung im Dezember 2019, dass die Zahl der kosmetischen Eingriffe steigt – zum Nachteil der Verständigung. Studien haben ergeben: Durch eingeschränkte Mimik können Emotionen nicht mehr in einem kommunikativen Maße erwidert oder ausgedrückt werden. Das kommunikative Spektrum wird also schmaler, Emojis übernehmen, Mimik funktioniert nur noch enhanced und augmented.
Insofern demonstrieren Greta Thunbergs Grimassen auch Anti-Beauty-Standards und Pro-Kommunikationsrituale. Frauen der Generation Z mit Gesichtern ohne Falten lassen sich mit Botox behandeln, damit erst gar kein Fältchen entsteht. Präventiv Botox spritzenlassen also, das ist die Gesichtspraxis, forever young als Oberflächenkonzept. Über die Situation in den USA schreibt die Journalistin Jia Tolentino im New Yorker, dass dabei Instagram-Faces mit einem „Cyborgian Look“ herauskommen – zum Teil Maschine, in Form der algorithmisch arbeitenden Fotofilter, die neue Beauty-Standards setzen, und zum Teil noch Mensch aus Haut und Knochen. Die jungen Frauen, von denen Tolentino berichtet, wollen auch „in real life“ aussehen wie ihr gefiltertes Selfie; das Selfie wirkt zurück. Der Bedarf scheint groß: Hyaluronsäure und Fillers versprechen schon Nivea-Produkte, die im Drogerieregal um die Ecke verkauft werden.
Ist das die Demokratisierung der Schönheitsbehandlung? Alle sollen sich für ihre Selfies möglichst jung und schön machen können? Da gibt es auch diese Szene in dem südkoreanischen Film Burning: Die Hauptdarstellerin wird auf der Straße in Seoul von einem ehemaligen Mitschüler nicht mehr wiedererkannt, weil sie nach einigen Schönheitseingriffen einfach nicht mehr ihr Schülerinnengesicht trägt, sondern eine ganz neue, den aktuellen Idealen angepasste Visage. In einer anderen Szene erklärt eine ihrer Co-Workerinnen auf dem harten Markt der Produktpräsenterinnen und des Zeitarbeit-Prekariats, dass es völlig üblich ist, dass junge Frauen ihr weniges Geld für diese Schönheitsmaßnahmen ausgeben oder Schulden machen. In Südkorea ist die Schönheits-OP ein eindeutiges Symptom des Hyperkapitalismus. „Cosmetic work had come to seem more like fitness“, sagt ein von Tolentino zitierter Schönheits-Doc in Los Angeles. Es ist kein Geheimnis mehr, etwas machen zu lassen. Anstatt sich die Mühe zu machen zu überspielen, was für die Aufmerksamen ohnehin gut sichtbar ist, wird ein Post draus. Als vulgär empfinden das immer weniger, seitdem sie alle den „black mirror“ in ihren Händen halten.
Aus gänzlich anderen Ressentiments und Feedback-Loops heraus kamen zwei französische Philosophen, alte weiße Männer, darunter Alain Finkielkraut auf die Idee, die 17-jährige Klimaschützerin und ihre Mimik-Skills mit einem Cyborg zu vergleichen. Es war ein Kommentar, der den „male gaze“ auf einen Teenager spiegelt. Sie begründeten ihr Urteil damit, dass Thunberg nicht die femininen Signale aussendet, die sie, die alten weißen Männer, sich wünschen. Sie passt nicht in ihr heteronormatives Frauenbild aus einer vergangenen Zeit. Dabei hatten Cyborgs immer was mit Zukunft zu tun. Was nun ist cyborghafter: ein überaus dramatischer Gesichtsausdruck oder ein dramatisch reduziertes Gesicht, das algorithmisch und plastisch-chirurgisch einem Ideal angenähert wurde? Das weder maschinell noch physisch bearbeitete Gesicht von Greta Thunberg verbindet nichts mit einem Cyborg, einem cybernetic organism.
Gesichter im Film erzählen viel über Sein und Zeit. In The Irishman von Martin Scorsese gehen die drei Hauptdarsteller durch eine digitale Verjüngungsmaschine: Die Gesichter von Robert De Niro, Al Pacino und Joe Pesci sehen in Rückblenden aus wie die von Männern in ihren Vierzigern – während ihre Bewegungen absurderweise immer noch die alter Männer bleiben. So umfassend kann die Augmented Reality noch nicht errechnet werden. Ihre digitale Maske wurde in der Postproduktion erstellt, mit extremem Aufwand. Anna Menta schildert in der New York Post-Postille Decider: „At all times, there are a minimum of three cameras on the actor’s face. A highly sensitive software uses those three points of view to detect the difference between light and shadow on the actor’s skin. Frame by frame, the software uses each pixel as a ‚marker‘ to render a completely computer-generated version of the actor’s face“. Unter diesen Produktionsbedingungen werden die Schauspieler-All-Stars szenenweise auch zu Cyborgs.
DREI ARTEN VON CYBORGS
Es gibt also sehr unterschiedliche Kontexte und Konzepte der Cyborg-Werdung. Erstens die beleidigend gemeinte Bezeichnung von Thunberg als Cyborg; zweitens die nach Instagram-Filter-Ideal gespritzten Gesichter junger Frauen, halb Computeranimation oder Nervengift, halb human flesh; drittens die „generated fotos“; die algorithmisch erzeugten Porträtfotos von Personen, die es angeblich nicht gibt. Und vielleicht muss sogar ein viertens hinzugefügt werden, und zwar wegen solcher Porträtfotos von echten Personen, die von der Firma D-ID so bearbeitet werden können, dass sie nicht mehr biometrisch zu erfassen sind, die Personen aber für menschliche Augen trotzdem wiedererkennbar bleiben. Zu diesem Foto-Service der „smart anonymization“ war es gekommen, weil Militärangestellte Bedarf hatten: per Arbeitsvertrag war es ihnen nicht erlaubt gewesen, ihre Gesichter zu posten. Um es trotzdem tun zu können und bei der digitalen Bildkultur dabei zu sein, mussten sie also für eine algorithmisch gesteuerte Suche unauffindbar werden.
Nun zur dritten Art von Cyborgs, den Porträtfotos von Leuten, die es nicht geben soll. Gibt es sie wirklich nicht? Erkennen diejenigen, die auf dem ursprünglichen Bildmaterial für die Porträts von nicht-existenten Personen abgelichtet waren, nicht ihre Augen, ihre Nase oder ihre Haare auf dem einen oder anderen Bild wieder? Sie sind von einem neuronalen Netzwerk kompiliert worden, deren Algorithmus den Namen „StyleGAN“ trägt. Das bezieht sich auf „Generative Adversarial Network“, zwei aufeinander angesetzte neuronale Netzwerke, Generator und Discriminator, wobei das eine Bilder erzeugt, die vom anderen Netzwerk bewertet werden, so dass das erste Netzwerk „lernt“, ohne menschliche Intervention bessere Bildergebnisse zu generieren. Bei genauerem Hinsehen erkennt man in den Gesichtern „glitches“ – verschobene Ohrmuscheln oder unterschiedliche Ohrringe links und rechts, verrutschte Augenlider und verwischte Hintergründe. Hier bildet sich die virtuelle Produktion als virtuelle Umgebung ab.
Noch sind Fake-Porträts auch ohne medienforensische Hilfsmittel ganz gut zu erkennen und FaceSwap oder FaceApp beliebte Spielzeuge. Digitale Fehler gibt es auch in Gesichtern, die mit Apps wie FaceTune bearbeitet wurden. Eifrige Instagram-Nutzer*innen machen sich die Mühe, die Fehler zu suchen und ihre Fundstücke zu zelebrieren. Sollten die fotorealistischen Bilder einer gar nicht mehr fernen Zukunft glatt und fehlerlos aussehen, haben wir allerdings ein Problem. DARPA – die technologische Forschungseinrichtung des Pentagon – sorgt sich schon jetzt um einem sinistren Gebrauch dieser errechneten (Video-)Bilder. Zu welchem (kommerziellen) Zweck die Bilder vordergründig generiert werden? Alle sparen Geld, Anwaltskosten (keine Copyright-Klagen), Produktionskosten und Werbekosten. Neu ist der Umfang. So viel mehr und so viel perfektere Bilder, der Bilddatensatz von generic.photos allein umfasst 100.000 generierte Bilder. Bis sie aussahen, wie sie jetzt aussehen – mit bloßem Auge sind noch Fehler beim Haaransatz, am Kragen oder an den Ohren zu erkennen – musste das Trainingsset aufwendig vorbereitet werden: Innerhalb von zwei Jahren wurden Tausende von Fotos von 69 verschiedenen Models unter den stets gleichen Kameraeinstellungen und Lichtbedingungen aufgenommen, danach mit Tags versehen und in Kategorien eingeteilt. Die Voraussetzung für die Arbeit der „künstlichen Intelligenz“ ist also eine Menge von von Menschen geleistete Vorarbeit.
Gesichter, die es nicht gibt, virtuelle Gesichter, kamen in der Geschichte der Gesichtspraktiken schon früher vor. Nur nicht in der Masse und Geschwindigkeit, die neuronale Netze draufhaben. In einem Text über Cyberfaces schreibt der Kunsthistoriker Hans Belting 2013 über ein zwanzig Jahre altes Coverfoto des Time Magazines aus dem Jahr 1993, dass das abgebildete Gesicht einer Frau ein „Konstrukt“ sei, das sich zu „einem kollektiven Idealgesicht“ eignete. Die Frau auf dem Cover existierte nicht, ihr Gesicht war aus verschiedenen Bildern nahtlos zusammengesetzt worden und wirkte kaum anders als gephotoshopte Modelgesichter, die von Titelseiten entgegenblicken. Es war aber nur ein einziges Bild. Belting schreibt, eininge Zeit vor der künstlerisch und gesellschaftlich diskutierten algorithmischen Bildproduktion darüber, dass Cyberfaces wie „interfaces zwischen unendlich vielen möglichen Bildern“ funktionieren. Ganz ähnlich wie zwei Jahre vor dem Time Magazine-Cover, als im November 1991 im Musikvideo zu Michael Jacksons „Black Or White“ unterschiedliche ethnische Gesichter nahtlos ineinander übergehen, hey: „it don’t matter, if you’re black or white“. Da zeigen sich die Ausläufer einer „We are the world“-Phase des Mainstream-Pop. Heute reagiert ein Künstler-Programmierer wie Sebastian Lütgert aka Robert Luxemburg auf die Verfügbarkeit des Algorithmus StyleGAN, indem er das Changieren von Gesichtsbildern zwischen Gesicht und Maske, Singular und Plural, zwischen Antirassismus und Affirmation wieder animiert und in dem Prozess teils unheimliche Eigenfaces – der Computer vektorisiert die Eingabebilder und lernt so zu sehen –, digital demolierte Horrorgesichter errechnet. Die uncanny Fratze der neuronalen Netze: Wenn die einzelnen Gesichter harmlos aussehen, dann entsteht erst zwischen den Einzelbildern etwas Unheimliches. Irgendwelche unbekannten Werbegesichter würden wir gar nicht weiter wahrnehmen. Der für die digitale Kultur so typische Übergang von Repräsentation zu Organisation betrifft nun auch das Gesicht. Maschinen haben dazu gelernt, sie können Gesichter erkennen und Gesichter generieren. Anlässlich von „The Face of America“ resümierte Belting: „Es lassen sich Gesichter produzieren, die niemandem gehören, sondern nur noch als Bilder existieren“.
Und sind echte Gesichter in den Fakes oder in den Instagram-Gesichtern noch wiederzuerkennen? Was haben die einen noch mit den anderen zu tun? Zum einen wird die Gesichtserkennung immer besser, an Flughäfen, in Hotels, und gegenüber unseren eigenen Geräten. Zum anderen sehen immer mehr Leute auf Bildern, die sie hochladen, gar nicht so aus wie im echten Leben. Das Vermissstenfoto der verschwundenen Berliner Teenagerin Rebecca Reusch löste im März 2019 eine Debatte aus: Die Familie hatte der Polizei ein Instagram-Foto der Jugendlichen für ihren öffentlichen Aufruf weitergegeben – eines dieser stark gefilterten Fotos mit großen Kulleraugen, viel Mascara und Gesicht in Herzform. Die Polizei, schwupps, veröffentlichte das digitale Bild. Entweder erkannten die Beamten die Filter nicht oder sie sahen keinen Nachteil darin. Ein Dilemma, wie die Journalistin Catrin Lorch in ihrem Artikel „Die Polizei sucht ein Instagram-Phantom“ in der Süddeutschen Zeitung feststellte; Einerseits löste das Bild viel Empathie in der Öffentlichkeit aus, andererseits war es kaum hilfreich, um die echte Rebecca Reusch wiederzuerkennen. Als celebrity subjects bezeichnet die Medientheoretikerin Jodi Dean User*innen, die sich den Style und den Look der Celebrities abgucken und imitieren. In dieser Bildkultur wird deutlich, dass es ein Bedürfnis gibt, ein „Wir“ zu bilden. Oder mit dem Singular /
Plural des YOU zu spielen, wie Wendy Chun das in ihrem Buch „Updating to Remain the Same“ tut: „We repeat—we write, we read, we expose ourselves—to communicate this sense of community, to insist that this ‚we‘, however inoperative, however YOUs, is possible“.
WAS IST EIGENTLICH MIT DEM BILDHINTERGRUND PASSIERT?
Als das Deepfake-Video von Mark Zuckerberg die Runde machte, war klar, dass da eine neue Form nicht nur der Bild-, sondern der Bewegtbildbearbeitung möglich geworden war. Das Video legte dem Facebook-Gründer neue Worte in den Mund. Dabei konnte seine Mimik und seine Lippenbewegungen so bearbeitet werden, dass der Eindruck entstand, Zuck würde tatsächlich diese Worte sprechen. Deepfake wurde vor allem auf prominente Gesichter angewandt, damit möglichst vielen klar werden kann, wie unheimlich gut die Software funktioniert. Wer kann noch den Unterschied feststellen zwischen Original und Fake?
Deepfakes können auch Pornoclips „customizen“ und Gesichter austauschen. Angewandt auf Pornos kann Deepfake jedenfalls Popstars, Schauspielerinnen oder Ex-Freunde zu Pornostars machen – heraus kommt dabei die sogenannte non-consensual pornography. Was früher ein Witz war. So wie in diesem Sommer im Berliner Freibad Humboldthain in der Kunst- und Spielecke von Tropez eine dieser ultra analogen Fotokulissen stand, eine bemalte Sperrholzwand mit oval ausgesägten Löchern, durch die man seinen Kopf stecken konnte für das etwas andere Selfie. In diesem Fall ein wenig redundant, weil es eine Schwimmbadszene war. Der Spaß dieser Wände liegt eigentlich darin, Ort und Körper zu wechseln und zu einer Comicfigur zu werden. Es ist immer das Drumherum, die Umgebung, die ausgetauscht wird, nicht das Gesicht, das verändert wird.
Während die Manipulation von Gesichtern immer realistischer ausfällt – wie von Programmierern wie Philip Wang mit StyleGAN demonstriert oder auf der Seite generated.photos als „unique, worry-free photos“ beworben, für die kein Copyright besteht, also keine Rechnung gestellt wird –, wird auch die Gesichtserkennung immer besser, an Flughäfen, in Hotels, und gegenüber unseren eigenen Geräten. Das Gesicht ist dann ein Passwort zum Einloggen oder Boarding. Als sie für ihren Selbsttest nach Los Angeles flog, hatte die Journalistin Jia Tolentino Sorge als „human cat“ an die Ostküste zurückzukehren. Letztlich hat sie nichts machen lassen. Stattdessen behielt sie das Gefühl zurück ihr virtuelles Gesicht, also das, was die Schönheitschirurgen als möglich vorgeschlagen und mit Filzstift eingezeichnet hatten, nicht wieder loswerden zu können. Da bieten sich Selfie-Maske und Emojis an.
https://thispersondoesnotexist.com
https://www.deidentification.co
https://rolux.org/video/stylegan_audio_visualizer_
demono1
https://rolux.org/video/this_person_does_not_exist_no_23