Si usas un prompt sobre Palestina en el generador de stickers de WhatsApp podrías llevarte una mala sorpresa

IA de Meta genera stickers whatsapp niños palestinos armados

Aunque al momento de escribir este artículo todavía no estaba disponible para todos, WhatsApp estrenó hace algunas semanas una funcionalidad genial: su propio generador de stickers impulsado por la IA de Meta. Con un sencillo prompt de pocas palabras podrás crear el sticker que desees y compartirlo con todos tus amigos en la app.

Estamos deseando probar esta función pronto, pero parece que la polémica le ha alcanzado realmente rápido. ¿Por qué? Primero lo hizo por permitir generar stickers soeces y hasta con algunos desnudos, y ahora por un tema todavía más delicado. La IA de stickers de WhatsApp está añadiendo armas cuando se habla de Palestina, algo que ha levantado una nube de críticas (y con toda razón).

La IA de Meta toma partido en el conflicto entre Palestina e Israel (y no debería hacerlo)

creador de stickets IA WhatsApp genera imagenes niños con armas

El equipo de The Guardian informó que el modelo de inteligencia artificial de Meta está generando imágenes con armas cuando se le indica algún prompt relacionado con Palestina. Asimismo, detallaron que esto no sucede cuando las indicaciones tienen la palabra “Israel” o alguna relacionada en el prompt.

Esto es un escándalo bastante gordo, pues la IA de Meta estaría tomando posición en el conflicto que se desarrolla actualmente en Oriente Medio. Hablamos de un sesgo que no debería existir y que deja en evidencia que algunas personas puertas adentro no están tomando las medidas adecuadas para frenarlo.

Lee también:  Todas las respuestas correctas del cuestionario del 4 de noviembre de Disney 100 en TikTok

Además, la agravante llega cuando las imágenes generadas incluyen a niños armados, un verdadero despropósito. Meta debería tener un filtro en su modelo de IA para evitar esto, pero parece que no existe.

¿Alguna prueba de ellos? Que este no es el primer problema de este tipo que enfrenta la IA de Meta. Semanas atrás también fue señalada de crear imágenes inapropiadamente violentas, groseras, con desnudos e incluso con niños armados como ahora. Sin embargo, no lo hacía apoyándose en una nacionalidad específica.

Ante esta situación, el equipo de The Verge decidió contactar a la compañía para saber su posición y qué harán al respecto. La respuesta llegó a través de Kevin McAlister, portavoz de Meta, quien solo contestó que la empresa: “continuará mejorando estas funciones a medida que evolucionen y más personas compartan sus comentarios”.

No es una respuesta especialmente concreta que señale el plan a seguir o las medidas a tomar para frenar esto.  No obstante, al menos apunta a que algo están haciendo. Esperemos pronto lo corrijan, pues parece poca cosa (aunque es algo bastante grave).