Nueva Herramienta de Clonación de Voz de OpenAI: Innovación, pero a la vez alto riesgo para la seguridad y privacidad

En un avance tecnológico que marca un hito, OpenAI ha lanzado una innovadora herramienta de audio capaz de clonar voces humanas con sorprendente precisión. Esta tecnología, que se perfila como un recurso valioso en múltiples sectores, desde la accesibilidad hasta el entretenimiento, también ha suscitado un debate importante sobre la seguridad y la privacidad, según lo manifestado por Danilo Leal Moraga, director del Magíster en Ciencias de la Computación y Magíster en Ingeniería Informática U. Andrés Bello, además de  ser presidente de la Comisión Ciencia de Datos del Colegio de Ingenieros de Valparaíso.

Sostiene el experto que mientras la comunidad tecnológica celebra este logro, se debe advertir sobre el potencial uso indebido de la clonación de voz en actividades delictivas, como el fraude y la suplantación de identidad. «La capacidad de imitar voces con gran fidelidad, plantea interrogantes sobre cómo garantizar que esta tecnología no caiga en manos equivocadas», enfatiza. La capacidad de clonar voces humanas -advierte-, puede plantear preocupaciones éticas y de seguridad, especialmente si se utiliza para fines fraudulentos o engañosos. «Los delincuentes podrían, en teoría, usar esta tecnología para suplantar la identidad de individuos en llamadas telefónicas, mensajes de voz o en la creación de contenido audiovisual falso, lo que podría utilizarse para cometer fraudes, engañar a personas en situaciones vulnerables o difundir información falsa».

Agrega el destacado académico que «para contrarrestar los riesgos se deben promover distintas estrategias. La educación y conciencia sobre la existencia y el funcionamiento de estas herramientas se presentan como medidas clave para preparar al público ante posibles engaños. Además, la verificación de la información mediante otros canales, se establece como un método efectivo para prevenir el fraude. «El desarrollo de tecnologías de detección de inteligencia artificial es otro frente en la lucha contra el uso malintencionado. Estas herramientas representan un complemento vital para discernir entre contenido genuino y alterado, pero como es conocido, tanto la legislación como entes reguladores siempre van un paso atrás del desarrollo de estas tecnologías», concluye.