Sin duda, la inteligencia artificial está sirviendo de mucha ayuda para quienes se apoyan en ella con tal de avanzar en trabajos. Acorta un camino que antes era más laborioso, y, si sabes emplear los prompts correctos, puedes obtener resultados realistas, al igual que satisfactorios.
Pero como te imaginarás, no todo es color de rosa. Habiendo a estas alturas cientos de IA con diferentes propósitos, nunca faltará la intención humana de causar daño a través de ellas. Ejemplos sobran, como el escándalo con imágenes de Taylor Swift creadas mediante una IA, la creación de correos y webs spam, o incluso la creación de algunas IA realmente problemáticas como Nudifi, en donde se puede desnudar a una persona mediante una foto suya.
La proliferación de contenido falso y polémico está más activo que nunca en las redes sociales, y ahora con la próxima llegada de Sora de OpenAI, podemos esperar que esta actividad se extienda aún más, sin control. La nueva IA de OpenAI ofrece vídeos increíblemente realistas que los usuarios podrán elaborar solo con texto, incluyendo todos los detalles que quieran. De recrear escenarios de la vida real falsos, podrá existir un nuevo maremoto de información dudosa creada para confundir o desinformar.
Las imágenes, y ahora los vídeos generados por IA, podrían ser un arma peligrosa. Claro está, en el caso de que caigan en manos de los aficionados a crear noticias falsas por el simple gusto de generar polémica. Y aunque pareciera ser algo no tan grave como suena, lo cierto es que las consecuencias que pueden venir detrás de una simple imagen reveladora sí que pueden generar daño.
Campañas poco éticas se pueden iniciar a partir de estas herramientas; sea para desacreditar organizaciones genuinas y manchar la reputación de figuras conocidas por todo el mundo. O incluso invadir la privacidad y transgredir el consentimiento de las personas.
La respuesta de muchos sitios webs ha sido inmediata para intentar paliar estos escenarios. YouTube ya te puede avisar si un vídeo fue generado por IA, Instagram igual, y Google, por su parte, ofrece marcas de agua en los contenidos creados por algunas de sus IA. Las marcas de agua o las señales invisibles que muchos servicios de IA dejan en cada contenido construido con sus recursos ayudan a separar lo auténtico de lo falso. Y, sin embargo, no es suficiente.
Por más que una foto de alguien desnudo generado por IA se pueda identificar como falsa, ya habrá llegado a muchos desde las redes sociales. Y es que, teniendo en cuenta la velocidad con la que se prolifera este tipo de publicaciones, las herramientas de detección están en evidente desventaja.
Eso sin contar con una situación más grave: la existencia de los falsos negativos por estos programas que se encargan de detectar contenido hecho por una IA. Así como ChatGPT puede equivocarse y arrojarte datos inventados, los marcadores que te dicen si algo lo hizo una IA, también son sensibles a fallos. ¿Qué pasa si un vídeo falso muy polémico acaba siendo respaldado por un programa legítimo? La gente acabaría por creérselo y las víctimas involucradas sin su consentimiento tendrían que enfrentarse a un mundo que no les cree.
Tal vez, es hora de que los creadores de las IA se tomen una pausa. Así podría existir un espacio para que las herramientas que ayudan a controlar todos los fuegos causados por noticias falsas, alcancen a las IA.