In der dynamischen Welt der Technologie, in der jede Innovation oft als großer Fortschritt gefeiert wird, ist es entscheidend zu fragen, wem diese "Revolution" tatsächlich zugutekommt. Das jüngste Fiasko der Funktionalität Expert Review von Grammarly, diskutiert von Shishir Mehrotra, CEO von Superhuman, ist ein perfektes Beispiel dafür, wie KI ethische Grenzen unter dem Deckmantel des Fortschritts überschreiten kann.
Im August 2025 gestartet, versprach Expert Review, das Schreiben der Nutzer durch die Ratschläge von Experten zu verbessern. Eine verlockende Idee, nur dass diese Experten, darunter Journalisten wie Julia Angwin, niemals ihre Zustimmung gegeben hatten, dass ihr Name verwendet wird. Die Reaktion ließ nicht lange auf sich warten: Eine Sammelklage wurde eingereicht, und die Funktionalität wurde schnell zurückgezogen. Laut Mehrotra war "es eine ziemlich versteckte Funktion. Sie hatte sehr wenig Nutzung." Doch diese Minimierung verdeckt nicht das grundlegende Problem: die unrechtmäßige Aneignung der Identität und der Arbeit anderer.
Dieser Fall wirft grundlegende Fragen zur Nutzung von KI in kreativen Bereichen auf. Wie The Verge berichtet, spiegelt der Vorfall breitere Bedenken hinsichtlich der ethischen Implikationen von KI und der Notwendigkeit klarer Vorschriften zur Nutzung von Namen und Bildern zu kommerziellen Zwecken wider. In einer Welt, in der KI zunehmend in unser Leben integriert wird, muss der Schutz individueller Rechte oberste Priorität haben.
Mehrotra versuchte, die Initiative zu rechtfertigen, indem er erklärte, dass "die Ansprüche unbegründet sind" und dass die Funktionalität keine Identitätsdiebstahl war, da sie klar zugeordnet war. Diese Verteidigung scheint jedoch das Herz des Problems zu ignorieren: die Zustimmung. Es spielt keine Rolle, ob die Zuordnung klar ist, wenn die ursprüngliche Nutzung ohne Erlaubnis erfolgt. Es geht um den Respekt vor den Rechten des geistigen Eigentums und der Würde der betroffenen Personen.
Mit 40 Millionen aktiven Nutzern täglich und 1.500 Mitarbeitern ist Superhuman kein kleines Startup, das sich leisten kann, diese Überlegungen zu ignorieren. Das Unternehmen hat die Funktionalität laut Mehrotra schnell "getötet", aber das reicht nicht aus, um den ursprünglichen Fehler zu tilgen. Diese Situation beleuchtet ein Paradoxon der technologischen Innovation: Im Wettlauf um Neuheiten vergessen Unternehmen oft, dass Innovation nicht auf Kosten grundlegender Rechte erfolgen darf.
Der Fall Grammarly-Superhuman ist eine brutale Erinnerung daran, dass KI, so mächtig sie auch sein mag, verantwortungsbewusst eingesetzt werden muss. Technologieunternehmen müssen verstehen, dass jeder Fortschritt von einer tiefgehenden ethischen Reflexion begleitet werden muss. Das Fehlen von Zustimmung bei der Nutzung von Expertennamen ist kein einfaches Versehen, sondern eine Verletzung von Rechten, die ernst genommen werden muss.
Letztendlich unterstreicht dieser Vorfall die Notwendigkeit strengerer Vorschriften und größerer Transparenz bei der Nutzung von KI. Die Nutzer, ebenso wie die Experten, deren Arbeit ausgebeutet wird, verdienen es zu wissen, wie ihre Daten und ihre Identität verwendet werden. Unternehmen müssen für ihr Handeln zur Verantwortung gezogen werden und dürfen sich nicht hinter Ausreden wie "versteckte Funktionalität" oder "geringe Nutzung" verstecken.
Während wir in eine zunehmend von KI dominierte Welt vordringen, ist es unerlässlich, sich daran zu erinnern, dass Technologie der Menschheit dienen muss und nicht umgekehrt. Individuelle Rechte dürfen niemals auf dem Altar der Innovation geopfert werden. Das ist eine Lektion, die Superhuman und andere Technologieunternehmen sich zu Herzen nehmen sollten.
