En su intento por terminar con la confusión generada por las imágenes manipuladas o creadas por Inteligencia Artificial (IA), Twitter impulsa el sistema Community Notes, que permitirá añadir contextos “valiosos” a este tipo de publicaciones, sin embargo, esto no será realizado por la red social, sino que serán los propios usuarios los que se encargarán de añadir estos comentarios.
La plataforma precisó que Community Notes solo estará disponible para los suscriptores de Twitter Blue, quienes podrán “seleccionar esta opción cuando crean que el contexto agregado sería útil, independientemente del tuit al que se adjunte la nota”. Más específicamente, se podrá advertir si una imagen fue creada por IA o si fue manipulada previamente.
Además, los usuarios podrán especificar a qué se refiere su aclaración: si es acerca de un tuit en específico; o sobre la imagen de la publicación, lo que debería aparecer en todos los tuits que incluyan la imagen. Esto aparecerá bajo el distintivo ‘Acerca de la imagen’, donde se podrá consultar toda la información.
Twitter aclaró que esta función es experimental y solo admite tuits con una sola imagen. Asimismo, precisó que está trabajando activamente para expandirlo, con el objetivo de admitir tuits con múltiples imágenes, GIF y videos. Y es que la viralización de imágenes falsas ha tomado fuerza últimamente.
Uno de los casos más recientes, fue una fotografía falsa de una explosión cerca del Pentágono, en Estados Unidos, que tuvo millones de retuits, y que tuvo que sr desmentida por las autoridades. “No se está produciendo ninguna explosión o incidente en o cerca de la reserva del Pentágono, y no hay peligro o peligro inmediato para el público”, aclaró el Departamento de Policía de Arlington.