Los Deepfakes ahora hacen presentaciones de negocios

Originalmente esta tecnología estuvo asociada con la pornografía y ahora esta ganando terreno en el mundo de los negocios
0
231

Las nuevas tecnologías en el lugar de trabajo a menudo comienzan su vida como símbolos de estatus y ayudas de productividad. Los primeros teléfonos para automóviles y las presentaciones de PowerPoint cerraron acuerdos y también marcaron la influencia de sus usuarios.

Algunos socios de EY, el gigante de la contabilidad anteriormente conocido como Ernst & Young, ahora están probando un nuevo truco en el lugar de trabajo para la era de la inteligencia artificial. Acentúan las presentaciones de los clientes o los correos electrónicos de rutina con videoclips sintéticos al estilo de una cabeza parlante protagonizada por dobles de cuerpos virtuales hechos con software de inteligencia artificial, un giro corporativo de una tecnología comúnmente conocida como deepfakes.

La exploración de la empresa de la tecnología, proporcionada por la startup británica Synthesia, se produce cuando la pandemia ha anulado las formas más tradicionales de cimentar las relaciones comerciales. El golf y los almuerzos largos son complicados o imposibles, las llamadas de Zoom y los archivos PDF son demasiado rutinarios.

Los socios de EY han utilizado sus dobles en correos electrónicos y para mejorar presentaciones. Un socio que no habla japonés utilizó la función de traducción incorporada en la tecnología de Synthesia para mostrar su avatar de IA hablando el idioma nativo de un cliente en Japón, aparentemente con buenos resultados.

“Lo estamos usando como un diferenciador y un refuerzo de quién es la persona”, dice Jared Reeder, quien trabaja en EY en un equipo que brinda asistencia creativa y técnica a los socios. En los últimos meses, se ha especializado en hacer que la IA se duplique con respecto a sus compañeros de trabajo. “En lugar de enviar un correo electrónico y decir ‘Hola, todavía estamos en el viernes’, puedes verme y escuchar mi voz”, dice.

Los clips se presentan abiertamente como sintéticos, no como videos reales destinados a engañar a los espectadores. Reeder dice que han demostrado ser una forma eficaz de animar las interacciones rutinarias con los clientes. “Es como llevar a un cachorro a la cámara”, dice. “Ellos se animan”.

Las nuevas herramientas corporativas requieren una nueva jerga: EY las llama sus ARI de dobles virtuales, para la identidad de realidad artificial, en lugar de deepfakes. Como sea que los llames, son el último ejemplo de la comercialización de imágenes y audio generados por IA, un concepto técnico que se hizo público por primera vez en 2017 cuando comenzaron a circular en línea clips sintéticos y pornográficos de actores de Hollywood. Los deepfakes se han vuelto cada vez más convincentes, comerciales y más fáciles de hacer desde entonces.

La tecnología ha encontrado usos en la personalización de fotografías de archivo, la generación de modelos para lucir ropa nueva y en las producciones convencionales de Hollywood. Lucasfilm contrató recientemente a un miembro prominente de la próspera comunidad en línea de deepfakers aficionados, que había ganado millones de visitas por clips en los que reelaboraba rostros en clips de Star Wars. Nvidia, cuyos chips gráficos impulsan muchos proyectos de IA, reveló la semana pasada que un discurso inaugural reciente del CEO Jensen Huang había sido falsificado con la ayuda del aprendizaje automático.

Synthesia, que impulsa los ARI de EY, ha desarrollado un conjunto de herramientas para crear videos sintéticos. Entre sus clientes se incluye la empresa de publicidad WPP, que ha utilizado la tecnología para difundir mensajes corporativos internos en diferentes idiomas sin la necesidad de realizar varias grabaciones de vídeo. EY ha ayudado a algunos clientes de consultoría a crear clips sintéticos para anuncios internos.

Reeder y su equipo crearon su primer ARI en marzo, para una propuesta de cliente. EY ganó el trato y se corrió la voz sobre el avatar de IA que ayudó. Pronto, otros socios querían dobles de IA propios.

El proceso de clonación es indoloro: el sujeto se sienta frente a una cámara durante unos 40 minutos, leyendo un guión especial. Las imágenes y el audio proporcionan a los algoritmos de Synthesia suficientes ejemplos de los movimientos faciales de una persona y cómo pronuncia diferentes fonemas para imitar su apariencia y voz. Después de eso, generar un video del ARI de una persona es tan fácil como escribir lo que debe decir. La tecnología puede mostrar diferentes fondos. Reeder recomienda que los socios utilicen la oficina en casa, la sala de estar u otros lugares con objetos personales que puedan proporcionar puntos de conversación.

En un clip del ARI del propio Reeder, su simulacro apareció desde el pecho hacia arriba con un traje oscuro, en lo que parecía ser una oficina con la marca EY y se parecía mucho al Reeder real en una llamada de Zoom. El avatar dijo “Hola, soy Jared Reeder” en una imitación aceptable de su voz, antes de agregar “En realidad no lo soy, soy su avatar”.

Como todos los clientes de Synthesia, EY debe obtener el consentimiento de una persona antes de hacer una versión digital de la misma. La firma de contabilidad dice que el acceso a las herramientas de creación de ARI se controla cuidadosamente para evitar el uso no autorizado o mal considerado.

EY planea continuar experimentando con clones digitales de empleados, pero es posible que la novedad del video sintético como herramienta comercial no sea duradera. Anita Woolley, profesora y psicóloga organizacional de la escuela de negocios de la Universidad Carnegie Mellon, dice que, aunque son llamativos, los videos hechos con la tecnología de Synthesia también pueden parecer un poco extraños.

“Cuando tienes una tecnología que presenta una apariencia humana, hay una delgada línea que va de reconfortante a inquietante”, dice Woolley. Su investigación sugiere que apresurarse a adoptar el video a veces puede ser un error. Existe evidencia de que las videollamadas pueden dificultar la comunicación o la resolución de problemas, porque las imágenes pueden distraer la atención del contenido de una conversación.

Reeder de EY dice que también se ha encontrado con cierto escepticismo al presentar internamente la tecnología de clonación de video de Synthesia. Algunos compañeros de trabajo han expresado su preocupación de que la tecnología pueda eventualmente devaluar el elemento humano en sus trabajos.

Reeder sostiene que los clips sintéticos pueden amplificar, en lugar de disminuir, el toque humano. Una persona de negocios que hace malabarismos con muchos clientes puede que no tenga tiempo para grabar docenas de videos personales, pero con un avatar de IA podría producirlos en minutos. “¿Qué es más humano que yo decir ‘Hola, buenos días’ con mi voz, mis gestos y mi cara?” él pide.

Leave a reply