Hero Image

Noticias

Falsificaciones de imágenes, rostros y voces a través de IA: ¿Qué son los deepfakes y cuáles son sus amenazas?

Fuente: Emol

Aunque llevan años desarrollándose, estas formas de falsificación se han sofisticado en el último tiempo con el avance de las tecnologías de información.Desde líderes políticos hasta figuras públicas y famosos han sido víctimas de los denominados “deepfakes”, prácticas que generan confusión y que, a través de la inteligencia artificial (IA), pueden usarse para engañar, chantajear, e incluso, realizar fraudes.

Ya sea a través de redes sociales, o incluso, páginas web para adultos, este tipo de contenido ha experimentado una proliferación significativa en internet.La subsecretaria del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, Carolina Gainza, explica a Emol Facts que el concepto de deepfakes se refiere a imágenes, videos o audios manipulados digitalmente para hacer que parezca que una persona está haciendo o diciendo algo que en realidad no ocurrió.

Pero también, la autoridad señala que con las nuevas tecnologías se puede encontrar el análisis e interpretación de sentimientos (que permite la generación de lenguajes y tonos de las noticias para priorizar sesgos y generar formas de polarización), además de técnicas de amplificación y polarización (que permiten favorecer la información que más causa tendencia e impacto, con independencia de su relevancia, pertinencia, validez o grados de verdad).“El caso de las fake news o noticias falsas nos ofrece un ejemplo sobre las maneras en que nos relacionamos hoy con la tecnología.

A nivel mundial se han levantado alertas por las distintas formas en que las redes sociales influyen en nuestra comprensión de los hechos: la generación constante, acelerada y masiva de información se antepone a ellos, al punto de desdibujarse mediante distintas estrategias de descontextualización, exageración, narración, entre otras, que llevan a generar estados de confusión e incertidumbre, que despiertan rápidamente las emociones de los llamados usuarios”, indica Gainza.

Ante este escenario, la subsecretaria asevera que se ha apuntado a la IA como una de las principales responsables de esta situación, argumentando que es la encargada de analizar, definir y ofrecer una comprensión del “comportamiento humano” a partir de las huellas que dejan las personas en la red.A modo de ejemplo, Gainza agrega que, para ofrecer contenidos, se usan técnicas de filtrado “colaborativo” (construcción de patrones de comportamiento en base a la interacción entre usuarios), filtrado en base a contenidos (construcción de patrones de comportamiento desde el tipo de contenidos que son consumidos), análisis de rutas de navegación (el tipo y cantidad de sitios web que se frecuentan), georreferenciación y ubicación (proximidad a servicios o contextos de interés).Orígenes de estas prácticas y algunos casos emblemáticosEl investigador del Centro Nacional de Inteligencia Artificial (CENIA), Carlos Aspillaga, asegura que hace unos cinco años, estas técnicas estaban principalmente ocupadas en aristas más académicas de investigación y se usaban principalmente para aplicaciones de imágenes, como una especie de “Photoshop automático”, y conforme la tecnología fue avanzando se empezó a aplicar también al audio y video.“Entonces, hoy ya vemos que esto (deepfakes) se puede ocupar prácticamente en cualquier formato audiovisual.

Originalmente esto tenía fines más recreativos, personas individuales que querían hacer algún video simpático lo utilizaban, pero hoy que esta tecnología ya está disponible un poco más abiertamente, queda a discreción de la persona que lo usa decidir qué fin le va a dar, y obviamente, uno promueve que se aplique para fines positivos”, manifiesta Aspillaga.En esa línea, el especialista explica que, entre sus usos, se aplica en videos de actores que ya no pueden trabajar, ya sea porque fallecieron o por alguna otra razón, generando la sensación de que es la misma persona la que está actuando.

Un ejemplo de esto fue el uso de IA para algunas escenas en las que apareció el actor Paul Walker en la película Rápidos y Furiosos 7, quien falleció durante el rodaje.Entre otros casos que han involucrado a famosos y figuras públicas, Loreto Bravo, directora del Instituto Data Science de la Universidad del Desarrollo, hace referencia a un video que mostraba al expresidente de Estados Unidos, Barack Obama, diciendo palabras que nunca pronunció, creado por el actor y director, Jordan Peele, a modo de concientizar sobre la tecnología.La académica menciona que otro caso involucra a la actriz Emma Watson de Harry Potter, cuyo rostro fue superpuesto en videos para adultos sin su consentimiento.

Según la experta, este deepfake se utiliza para promocionar una aplicación que por sólo 8 dólares promete reemplazar un rostro deseado en un video específico.“Un ejemplo más cercano es la creación de un deepfake de Felipe Camiroaga desarrollado por la empresa Deepmaster, que crea deepfakes para la industria del entretenimiento. En este caso lo hicieron como una forma de recordarlo”, añade Bravo.El impacto de estos contenidos y formas de regularlosEdmundo Casas, integrante de la Mesa de IA de la Asociación Chilena de Empresas de Tecnología de la Información (ACTI), destaca que el impacto de los deepfakes es preocupante, debido a que pueden generar confusión y desinformación en la sociedad, erosionando la confianza en los medios visuales y en la información en general.Además, el experto asegura que estos formatos pueden ser utilizados con fines maliciosos, como manipular elecciones, difamar a personas o generar conflictos.“El principal impacto que lleva esto es que ahora nadie puede creer en sus sentidos, nada de lo que uno vea, lea o escuche en un medio digital podrá ser considerado como verdadero.

Esto lleva a una desconfianza generalizada o la posibilidad de creer en cosas incorrectas.

Afecta también a periodos críticos de las naciones como lo son las elecciones presidenciales, a empresas privadas o personas individuales para robar dinero”, afirma Nicolás Corrado, Socio Líder de Cyber Risk en Deloitte.El experto explica que, si bien existen algunas regulaciones para los deepfakes, las mismas varían dependiendo del país y la jurisdicción.

E indica que hay debates en curso sobre cómo equilibrar la protección contra los daños potenciales de estas prácticas
, con la protección de la libertad de expresión y la innovación tecnológica, al mismo tiempo que se vuelve clave para dichas regulaciones el poder detectarlos.Corrado recalca que la detección de deepfakes es un área de investigación activa, y que muchas empresas y organizaciones están trabajando en formas de identificar y marcar automáticamente este tipo de contenido manipulado, de la misma forma que muchos Gobiernos y comunidades están buscando regular la Inteligencia Artificial.“Regular el fenómeno de los deepfakes es un desafío complejo debido a la rápida evolución de la tecnología y las dificultades para detectarlos. Se requiere una combinación de enfoques técnicos y legales para abordar el problema.

Algunas posibles soluciones incluyen el desarrollo de herramientas de detección de deepfakes más sofisticadas, la promoción de estándares y mejores prácticas para la autenticidad de los medios visuales, la educación pública sobre los riesgos de los deepfakes y la implementación de leyes y regulaciones específicas que aborden el uso malicioso de esta tecnología”, expresa Edmundo Casas.