El gran engaño que vivió Scarlett Johansson con la IA y el uso de su voz con ChatGPT
Una de las polémicas más fuertes que se ha dado en torno al uso de la inteligencia artificial para generar contenido es la situación que se vivió entre Scarlett Johansson y OpenAI, luego de que la empresa usará una voz muy similar a la de la actriz para darle vida a ChatGPT. Esta situación desató un debate público sobre el uso de esta tecnología y su potencial forma de remplazar a los artistas.
Todo empezó en mayo de 2024, cuando la compañía lanzó la versión 4.0 de ChatGPT, que incluía la posibilidad de interactuar con una voz femenina que era muy similar a la que Johansson había prestado para su personaje en la película Her (2013). En aquel filme, la actriz interpretaba a una asistente virtual con la que el protagonista desarrollaba una relación íntima.
La ctriz reveló que, meses antes del lanzamiento, OpenAI la había contactado con una propuesta formal para que prestara su voz a ChatGPT. Según explicó la actriz en una carta publicada por el New York Times el 20 de mayo de 2024, el CEO de la empresa, Sam Altman, le había dicho que su voz podría ser un puente entre el mundo de la tecnología y los creativos, ayudando a que los usuarios se sintieran más cómodos con integración de la inteligencia artificial en la vida cotidiana.
Sin embargo, la actriz decidió rechazar la oferta por razones personales. Por eso lo que sucedió después la tomó por sorpresa. Pocos meses más tarde, cuando la compañía lanzó su actualización, amigos, familiares y fanáticos notaron el asombroso parecido entre la voz del nuevo sistema, llamado Sky, y la de Johansson.
“Cuando escuché la demostración lanzada, me sorprendí, me enojé y no podía creer que el Sr. Altman buscara una voz que sonara tan extrañamente similar a la mía”, aseguró en una carta.
La respuesta de OpenAI y la decisión de pausar Sky
Ante toda la polémica causada por las declaraciones de Johansson y las crecientes críticas del público, OpenAI se vio obligada a responder. Sam Altman negó rotundamente que la voz de Sky estuviera inspirada en la de la actriz. Afirmó que la voz fue grabada por una actriz profesional, sin ninguna intención de imitar su voz.
Sin embargo, en un gesto de respeto hacia la actriz, la empresa decidió retirar temporalmente la voz de Sky de sus productos.
Altman también lamentó no haber gestionado mejor la comunicación con Johansson y su equipo, reconociendo que la situación podría haberse manejado de una manera más transparente. Dos días después de la declaración pública de la actriz, la empresa publicó en su sitio web un artículo explicando cómo se llevó a cabo el proceso de selección de las voces para ChatGPT.
La compañía señaló que colaboró con directores de casting y productores de renombre, recibiendo más de 400 solicitudes antes de reducir la lista a cinco voces finales: Breeze, Cove, Ember, Juniper y Sky.
La polémica creció a denuncia pública
Johansson no fue la primera en acusar a OpenAI de utilizar su identidad sin autorización. Previamente, la actriz y escritora Sarah Silverman había demandado a la compañía por entrenar su modelo de inteligencia artificial utilizando su libro de memorias, “The Bedwetter” (2011), sin su consentimiento.
Autores de renombre como George R.R. Martin y John Grisham también se unieron a una demanda similar, alegando que la empresa estaba llevando a cabo un “robo sistemático a gran escala” al utilizar sus obras protegidas por derechos de autor para entrenar sus modelos.
Estos casos han puesto en el centro del debate la necesidad de establecer regulaciones más estrictas que protejan los derechos individuales en la era digital. En respuesta a estas acusaciones, OpenAI ha argumentado que es imposible entrenar los modelos de inteligencia artificial actuales sin utilizar material protegido por derechos de autor, dada la vasta cantidad de datos necesarios para que estos sistemas funcionen.
Un sondeo realizado en noviembre de 2023 por el Pew Research Center reveló que un 67% de los estadounidenses que están familiarizados con chatbots como ChatGPT expresaron su preocupación de que el gobierno no esté regulando adecuadamente el uso de estas tecnologías. Este sentimiento es compartido por muchas figuras públicas que ven la falta de regulación como un terreno ideal para abusos y violaciones de derechos.