Cd. de México.-
Si como usuarios comunes y corrientes generamos múltiples contenidos digitales, desde fotografías en Instagram hasta clips en TikTok, la inteligencia artificial (IA) podría dispararlo, ya que en la mayor parte de los casos solo se requiere de un promp sencillo. Considerando este escenario (presente y futuro), Meta dibuja una serie de cambios en la forma en que trata los contenidos manipulados en Facebook, Instagram y Threads, luego de la retroalimentación recibida por el Consejo asesor de contenido.
En una publicación autoría de Monika Bickert, vicepresidenta de Política de Contenidos en Meta, se mostró concordancia con esta entidad separada de la compañía, sobre todo en la idea de que “nuestro enfoque actual es demasiado limitado, ya que solo cubre los videos creados o alterados por IA que hacen parecer que una persona dice algo que no ha dicho”.
Recordó que su política de contenidos manipulados se redactó en 2020, cuando los materiales generados por IA eran escasos y la preocupación general se concentraba en los videos. Pero ¿qué pasa con los audios y fotos que se obtienen con esta tecnología?
“En febrero, anunciamos que hemos estado trabajando con socios de la industria en normas técnicas comunes para identificar contenidos de IA, incluidos videos y audio. Nuestras etiquetas ‘Hecho con IA’ en video, audio e imágenes generados por IA se basarán en nuestra detección de señales de imágenes de IA y en si las personas indican que están subiendo contenidos generados por IA”, contextualizó Bickert.
En otras palabras, las etiquetas se ampliarán a una gama más amplia de contenidos, “además de los contenidos manipulados que el Consejo asesor de contenido recomendó etiquetar”.
Si se determina que un material de los mencionados anteriormente representa un riesgo alto de engañar sobre un asunto de importancia, se podría añadir una etiqueta más destacada con el fin de que las personas cuenten con más información y contexto.
La vicepresidenta enfatizó que ya no se eliminarán los videos manipulados por IA que no infrinjan las normas comunitarias de Meta. Añadió que la empresa cuenta con una red de casi 100 verificadores de datos independientes que seguirán revisando los contenidos falsos y engañosos generados por IA; cuando ellos califican un contenido como falso o alterado, se muestra más abajo en el Feed para que lo vea menos gente y se le añade una etiqueta superpuesta con información adicional.
El objetivo es empezar a etiquetar los contenidos generados por IA en mayo de 2024, mientras que en julio próximo se prevé dejar de eliminar contenidos generados por IA que no violen las políticas de Meta.
“El Consejo asesor de contenido también argumentó que eliminar los contenidos manipulados sin infringir otra política de nuestras Normas Comunitarias restringe la libertad de expresión”, contó Bickert.
Fue en la primavera de 2023 cuando Meta comenzó a reevaluar sus reglas, especialmente para entender si se necesitaba un nuevo enfoque acorde con el ritmo de los rápidos avances tecnológicos y el uso de la IA generativa.