Microsoft

¿Podría la criptografía C2PA ser la clave para combatir la desinformación impulsada por la IA?

Adobe, Arm, Intel, Microsoft y Truepic son totalmente compatibles con C2PA, una alternativa a las marcas de agua de contenido generadas por IA.

Cabezas de robot coloridas que representan inteligencia artificial generativa.Imagen: Sascha/Adobe Stock

A medida que la IA generativa se extiende por el panorama del software empresarial, todavía se están desarrollando estándares a nivel gubernamental y organizacional sobre cómo usarlo. Uno de esos estándares es la Autenticación de contenido de IA generativa, conocida como C2PA.

C2PA existe desde hace dos años, pero recientemente ha ganado atención a medida que la IA generativa se ha vuelto más común. La organización detrás de C2PA ha duplicado su membresía en los últimos seis meses.

Salta a:

¿Qué es C2PA?

La especificación C2PA es un protocolo de Internet de código abierto que describe cómo agregar afirmaciones de atribución (también conocidas como afirmaciones) a piezas de contenido. La declaración de atribución puede venir en forma de un botón en el que los espectadores pueden hacer clic para ver si los medios fueron creados en parte o en su totalidad por inteligencia artificial.

En resumen, los datos de procedencia están vinculados criptográficamente a los medios, lo que significa que cualquier cambio en cualquiera de ellos alerta al algoritmo de que los medios ya no se pueden autenticar. Puede obtener más información sobre cómo funciona este cifrado leyendo la especificación técnica de C2PA.

LEER  Obtenga HP EliteBook, Microsoft Office Pro y más por un precio

El acuerdo fue creado por Content Provenance and Authenticity Alliance, también conocido como C2PA. Adobe, Arm, Intel, Microsoft y Truepic son compatibles con C2PA, un proyecto conjunto que reúne a Content Authenticity Initiative y Project Origin.

La Iniciativa de Autenticidad de Contenido es una organización formada por Adobe para fomentar el suministro de información contextual y de procedencia en medios digitales. Creado por Microsoft y la BBC, Project Origin es un enfoque estandarizado de la tecnología de procedencia digital para garantizar que la información, especialmente los medios de comunicación, tenga un origen comprobable y no haya sido manipulada.

Los grupos C2PA trabajan juntos para detener la información errónea, especialmente el contenido generado por IA que podría confundirse con fotos y videos reales.

¿Cómo etiquetar el contenido de IA?

En julio de 2023, el gobierno de EE. UU. y las principales empresas de IA publicaron un acuerdo voluntario para divulgar cuándo la IA generativa crea contenido. El estándar C2PA es una forma posible de cumplir con este requisito. Las marcas de agua y la detección de inteligencia artificial son otras dos formas únicas en que se pueden marcar las imágenes generadas por computadora. En enero de 2023, OpenAI lanzó su propio clasificador de IA para este propósito, pero luego cerró en julio, «… debido a su baja tasa de precisión».

Mientras tanto, Google está tratando de ofrecer un servicio de marca de agua junto con su propia inteligencia artificial. Según el gigante tecnológico en mayo de 2023, el LLM PaLM 2 alojado en Google Cloud podrá etiquetar imágenes generadas por máquinas.

VER: Contact Center basado en la nube montar el viento y las olas La popularidad de la inteligencia artificial generativa. (República tecnológica)

Hay algunos productos de detección de inteligencia artificial generativa en el mercado hoy en día. Muchas de estas herramientas, como el detector GPT de Writefull, fueron creadas por organizaciones que también proporcionan herramientas de escritura de inteligencia artificial generativa. Funcionan de manera similar a cómo funciona la propia inteligencia artificial. GPTZero, que se anuncia a sí mismo como un detector de contenido de IA para la educación, se describe como un «clasificador» que utiliza las mismas capacidades de reconocimiento de patrones que los modelos Transformer preentrenados generativamente que detecta.

La importancia de la marca de agua para prevenir el uso malicioso de la inteligencia artificial

Los líderes empresariales deben alentar a los empleados a estar atentos al contenido generado por IA (que puede o no estar marcado como IA) para fomentar la atribución adecuada y la información creíble. También es importante que el contenido generado por IA creado dentro de una organización se etiquete como tal.

Más cobertura de IA de lectura obligada

La Dra. Alessandra Sala, directora sénior de inteligencia artificial y ciencia de datos de Shutterstock, dijo en un comunicado: «Unirse a CAI y adoptar el estándar C2PA subyacente es un paso natural en nuestros esfuerzos continuos para proteger a la comunidad de artistas y a los usuarios, ya que apoyamos la desarrollo de sistemas e infraestructura que crean una mayor transparencia, ayudando a nuestros usuarios a identificar más fácilmente qué es la creación de un artista y qué es arte generado o modificado por IA».

Todo se reduce a asegurarse de que las personas no utilicen esta tecnología para difundir información errónea.

«A medida que esta tecnología se implemente más ampliamente, las personas comenzarán a esperar que se adjunten credenciales de contenido a la mayoría del contenido que ven en línea», dijo Andy Parsons, director senior del Programa de Autenticidad de Contenido de Adobe. tiene credenciales de contenido adjuntas, puede estar sujeto a un escrutinio adicional cuando decida confiar en él y compartirlo».

La atribución de contenido también puede ayudar a los artistas a conservar la propiedad de su trabajo.

Para las empresas, detectar contenido generado por IA y marcar el suyo propio cuando corresponda puede aumentar la confianza y evitar atribuciones erróneas. Después de todo, el plagio funciona en ambos sentidos. Es necesario encontrar artistas y escritores que utilicen la inteligencia artificial generativa para plagiar. Al mismo tiempo, los artistas y escritores que crean trabajos originales deben asegurarse de que esos trabajos no terminen en proyectos generados por IA de otras personas.

Para los equipos de diseño gráfico y los artistas individuales, Adobe está agregando una etiqueta de «No entrenar» al panel Fuentes de contenido del contenido de Photoshop y Adobe Firefly para garantizar que el arte original no se use para entrenar la IA.

LEER  Proyectos de TI: hechos para durar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba