Meta anunció una actualización de su política de etiquetado de IA, ampliando su definición de «medios manipulados» para ir más allá de los videos generados por IA, para incluir ahora audio engañoso e imágenes en Facebook, Instagram e hilos.
Una característica importante de la nueva política es su sensibilidad al ser percibido como restrictivo de la libertad de expresión. En lugar de adoptar el enfoque de eliminar el contenido problemático meta es simplemente etiquetarlo. Meta introdujo dos etiquetas, «Made with AI» e «Imagined with AI», para dejar claro qué contenido se creó o alteró con IA.
Nuevas etiquetas de advertencia
El contenido generado por IA confiará en identificar las señales de AI-Authorship y autoinforme:
«Nuestras etiquetas ‘Made with AI’ en video, audio e imágenes generados por IA se basarán en nuestra detección de señales compartidas de imágenes de IA o personas autoscronizadas que están cargando contenido generado por IA»
El contenido que es significativamente engañoso puede recibir etiquetas más prominentes para que los usuarios puedan obtener una mejor comprensión.
El contenido nocivo que viole los estándares de la comunidad, como el contenido que incita la violencia, la interferencia electoral, el acoso o los acosamientos calificarán para la eliminación, independientemente de si es humano o generado por IA.
Razón de la política actualizada de Meta
La política original de etiquetado de IA se creó en 2020 y debido al estado de la tecnología, se definió estrechamente confinado a abordar videos engañosos (del tipo que representaba figuras públicas que decían cosas que nunca hicieron). La junta de supervisión de Meta reconoció que la tecnología ha progresado hasta el punto de que se necesitaba una nueva política. En consecuencia, la nueva política se expande para abordar el audio e imágenes generados por la IA, además de los videos.
Basado en los comentarios de los usuarios
El proceso de Meta para actualizar sus reglas parece haber anticipado el retroceso de todos los lados. Su nueva política se basa en comentarios extensos de una amplia gama de partes interesadas y aportes del público en general. La nueva política también tiene la flexibilidad de doblarse si es necesario.
Meta explica:
“En la primavera de 2023, comenzamos a reevaluar nuestras políticas para ver si necesitábamos un nuevo enfoque para mantener el ritmo de los rápidos avances … completamos consultas con más de 120 partes interesadas en 34 países en cada región importante del mundo. En general, escuchamos un amplio apoyo para etiquetar el contenido generado por IA y un fuerte apoyo para una etiqueta más prominente en escenarios de alto riesgo. Muchas partes interesadas fueron receptivas al concepto de personas que sean revelando el contenido como generado por IA.
… También realizamos investigaciones de opinión pública con más de 23,000 encuestados en 13 países y preguntamos a las personas cómo las empresas de redes sociales, como Meta, deberían abordar el contenido generado por la IA en sus plataformas. Una gran mayoría (82%) favorece las etiquetas de advertencia para el contenido generado por IA que representa a las personas que dicen cosas que no dijeron.
… y la junta de supervisión señaló que sus recomendaciones fueron informadas por consultas con organizaciones de sociedad civil, académicos, organizaciones intergubernamentales y otros expertos «.
Colaboración y consenso
El anuncio de Meta explica que planean que las políticas se mantengan al día con el ritmo de la tecnología al revisarlo con organizaciones como la Asociación de IA, gobiernos y organizaciones no gubernamentales.
La política revisada de Meta enfatiza la necesidad de transparencia y contexto para el contenido generado por IA, que la eliminación del contenido se basará en violaciones de sus estándares comunitarios y que la respuesta preferida será etiquetar contenido potencialmente problemático.
Lea el anuncio de Meta
Nuestro enfoque para etiquetar el contenido generado por IA y los medios manipulados
Imagen destacada de Shutterstock/Boumen Japet