Dans le monde effervescent de la technologie, où chaque innovation est souvent célébrée comme une avancée majeure, il est crucial de se demander à qui profite réellement cette "révolution". Le récent fiasco de la fonctionnalité Expert Review de Grammarly, discuté par Shishir Mehrotra, CEO de Superhuman, est un exemple parfait de la manière dont l'IA peut franchir des lignes éthiques sous couvert de progrès.

Lancé en août 2025, Expert Review promettait d'améliorer l'écriture des utilisateurs en s'appuyant sur les conseils d'experts. Une idée séduisante, sauf que ces experts, dont des journalistes comme Julia Angwin, n'avaient jamais donné leur accord pour que leur nom soit utilisé. La réaction ne s'est pas fait attendre : une action collective en justice a été lancée, et la fonctionnalité a rapidement été retirée. Selon Mehrotra, "c'était une fonctionnalité assez cachée. Elle avait très peu d'utilisation." Mais cette minimisation ne masque pas le problème fondamental : l'appropriation non consentie de l'identité et du travail d'autrui.

Ce cas soulève des questions essentielles sur l'utilisation de l'IA dans les domaines créatifs. Comme le rapporte The Verge, l'incident reflète des préoccupations plus larges concernant les implications éthiques de l'IA et la nécessité de réglementations claires sur l'utilisation des noms et des images à des fins commerciales. Dans un monde où l'IA est de plus en plus intégrée dans nos vies, la protection des droits individuels doit être une priorité.

Mehrotra a tenté de justifier l'initiative en affirmant que "les revendications sont sans fondement" et que la fonctionnalité n'était pas une usurpation d'identité, car elle était clairement attribuée. Cependant, cette défense semble ignorer le cœur du problème : le consentement. Peu importe que l'attribution soit claire si l'utilisation initiale est faite sans autorisation. C'est une question de respect des droits de propriété intellectuelle et de la dignité des personnes concernées.

Avec 40 millions d'utilisateurs actifs quotidiens et 1 500 employés, Superhuman n'est pas une petite startup qui peut se permettre de négliger ces considérations. L'entreprise a rapidement "tué" la fonctionnalité, selon les mots de Mehrotra, mais cela ne suffit pas à effacer l'erreur initiale. Cette situation met en lumière un paradoxe de l'innovation technologique : dans la course à la nouveauté, les entreprises oublient souvent que l'innovation ne doit pas se faire au détriment des droits fondamentaux.

L'affaire Grammarly-Superhuman est un rappel brutal que l'IA, aussi puissante soit-elle, doit être utilisée de manière responsable. Les entreprises technologiques doivent comprendre que chaque avancée doit être accompagnée d'une réflexion éthique approfondie. L'absence de consentement dans l'utilisation des noms d'experts n'est pas un simple oubli, c'est une violation des droits qui mérite d'être prise au sérieux.

En fin de compte, cet incident souligne la nécessité d'une réglementation plus stricte et d'une plus grande transparence dans l'utilisation de l'IA. Les utilisateurs, tout comme les experts dont le travail est exploité, méritent de savoir comment leurs données et leur identité sont utilisées. Les entreprises doivent être tenues responsables de leurs actions et ne pas se cacher derrière des excuses de "fonctionnalité cachée" ou de "peu d'utilisation".

Alors que nous avançons dans un monde de plus en plus dominé par l'IA, il est impératif de se rappeler que la technologie doit servir l'humanité, et non l'inverse. Les droits individuels ne doivent jamais être sacrifiés sur l'autel de l'innovation. C'est une leçon que Superhuman et d'autres entreprises technologiques feraient bien de retenir.