Foto de Igor Omilaev en Unsplash
Una polémica en torno a la identidad digital y los límites éticos de la IA
La compañía Superhuman, responsable del popular asistente de escritura Grammarly, ha desactivado recientemente su función “Expert Review”, una herramienta que utilizaba inteligencia artificial generativa para ofrecer comentarios personalizados al estilo de escritores, científicos o figuras académicas reales. La decisión llega tras un aluvión de críticas de autores vivos cuyos nombres aparecían en el servicio sin su consentimiento.
La funcionalidad prometía mejorar los textos de los usuarios ofreciendo sugerencias “inspiradas” en las perspectivas y el tono de expertos de distintos ámbitos. Sin embargo, detrás de esta propuesta aparentemente innovadora se escondía una práctica problemática: el sistema empleaba información pública obtenida a través de modelos de lenguaje externos, posiblemente alimentados con datos recopilados de la web sin una autorización clara.
Una respuesta tardía ante las quejas
Tras detectarse el uso de nombres y estilos de escritores reales, numerosos profesionales expresaron su indignación al descubrir que sus identidades se usaban como referencia sin conocimiento previo. Ante la presión mediática y la amenaza de una demanda colectiva, Superhuman optó por suspender la función y abrir un proceso de revisión interna. El propio director ejecutivo, Shishir Mehrotra, anunció que el sistema permanecerá inactivo mientras se evalúa su adecuación ética y legal.
La compañía había intentado inicialmente calmar la situación ofreciendo a los autores la posibilidad de excluir sus nombres del modelo, aunque esta solución se consideró insuficiente. El problema de fondo no era la participación, sino el uso no autorizado de reputaciones personales en un entorno automatizado que podía inducir a error sobre la implicación real de los creadores mencionados.
Reflexión sobre la responsabilidad en la era de la inteligencia generativa
Este caso reabre el debate sobre los límites de la inteligencia artificial cuando se aplica a la creación o análisis de contenidos humanos. Mientras las herramientas generativas se vuelven más sofisticadas, también aumenta la necesidad de transparencia respecto a sus fuentes de entrenamiento y su relación con la autoría humana. La delgada línea entre homenaje, inspiración y suplantación pone de manifiesto un nuevo campo de responsabilidad tecnológica.
El incidente de Grammarly se suma a una creciente lista de tensiones entre la innovación y el respeto a los derechos de los creadores. La cuestión ética seguirá marcando el pulso de la inteligencia artificial en los próximos años, y este tipo de decisiones serán clave para definir la confianza del público en las herramientas automatizadas.
En definitiva, este episodio invita a una reflexión profunda sobre cómo equilibrar el avance de la IA con el respeto a la identidad y al trabajo intelectual de las personas. La inteligencia artificial no solo debe ser potente, sino también responsable y transparente. En Trixología seguiremos analizando cómo las empresas afrontan este reto en el desarrollo de modelos generativos.
