En el mundo efervescente de la tecnología, donde cada innovación es a menudo celebrada como un avance mayor, es crucial preguntarse a quién realmente beneficia esta "revolución". El reciente fiasco de la funcionalidad Expert Review de Grammarly, discutido por Shishir Mehrotra, CEO de Superhuman, es un ejemplo perfecto de cómo la IA puede cruzar líneas éticas bajo el pretexto de progreso.

Lanzado en agosto de 2025, Expert Review prometía mejorar la escritura de los usuarios basándose en los consejos de expertos. Una idea seductora, salvo que estos expertos, como la periodista Julia Angwin, nunca habían dado su consentimiento para que su nombre fuera utilizado. La reacción no se hizo esperar: se inició una acción colectiva en justicia, y la funcionalidad fue retirada rápidamente. Según Mehrotra, "era una funcionalidad bastante oculta. Tenía muy poco uso." Pero esta minimización no oculta el problema fundamental: la apropiación no consentida de la identidad y el trabajo de otros.

Este caso plantea preguntas esenciales sobre el uso de la IA en los ámbitos creativos. Como informa The Verge, el incidente refleja preocupaciones más amplias sobre las implicaciones éticas de la IA y la necesidad de regulaciones claras sobre el uso de nombres e imágenes con fines comerciales. En un mundo donde la IA está cada vez más integrada en nuestras vidas, la protección de los derechos individuales debe ser una prioridad.

Mehrotra intentó justificar la iniciativa afirmando que "las reclamaciones son infundadas" y que la funcionalidad no era una usurpación de identidad, ya que estaba claramente atribuida. Sin embargo, esta defensa parece ignorar el corazón del problema: el consentimiento. No importa que la atribución sea clara si el uso inicial se realiza sin autorización. Es una cuestión de respeto a los derechos de propiedad intelectual y a la dignidad de las personas involucradas.

Con 40 millones de usuarios activos diarios y 1,500 empleados, Superhuman no es una pequeña startup que pueda permitirse ignorar estas consideraciones. La empresa "mató" rápidamente la funcionalidad, según las palabras de Mehrotra, pero eso no es suficiente para borrar el error inicial. Esta situación pone de relieve un paradoja de la innovación tecnológica: en la carrera por la novedad, las empresas a menudo olvidan que la innovación no debe hacerse a expensas de los derechos fundamentales.

El caso Grammarly-Superhuman es un recordatorio brutal de que la IA, por poderosa que sea, debe ser utilizada de manera responsable. Las empresas tecnológicas deben entender que cada avance debe ir acompañado de una reflexión ética profunda. La ausencia de consentimiento en el uso de los nombres de expertos no es un simple olvido, es una violación de derechos que merece ser tomada en serio.

Al final, este incidente subraya la necesidad de una regulación más estricta y de una mayor transparencia en el uso de la IA. Los usuarios, al igual que los expertos cuyo trabajo es explotado, merecen saber cómo se utilizan sus datos y su identidad. Las empresas deben ser responsables de sus acciones y no esconderse detrás de excusas de "funcionalidad oculta" o de "poco uso".

A medida que avanzamos en un mundo cada vez más dominado por la IA, es imperativo recordar que la tecnología debe servir a la humanidad, y no al revés. Los derechos individuales nunca deben ser sacrificados en el altar de la innovación. Es una lección que Superhuman y otras empresas tecnológicas harían bien en recordar.