La IA crea imágenes con marcas de agua invisibles, mientras los académicos advierten de la inutilidad de este tipo de medidas.
Microsoft ha integrado el último modelo de conversión de texto en imagen DALL-E 3 de OpenAI en sus servicios Bing Image Creator y Chat, y añadirá una marca de agua invisible que indicará la fecha y hora en que se creó originalmente una imagen y la señalará como generada por IA.
Modelo DALL-E 3
"El modelo DALL-E 3 de OpenAI ofrece mejoras en la calidad y el detalle de las imágenes, así como una mayor precisión en la representación de manos humanas, rostros y texto en imágenes", afirma el anuncio de OS-slinger.
Puede leer también | Microsoft Edge ya está desplegando el generador de imágenes basado en DALL∙E a todos los usuarios
Los usuarios pueden experimentar con la herramienta en el chat de Bing o en la función de creación de imágenes de la búsqueda de Bing de forma gratuita. Los expertos llevan tiempo advirtiendo de los riesgos de que herramientas de IA generativa como DALL-E 3 se utilicen para crear desinformación e imágenes falsas.
Microsoft trató de resolver este problema en julio, cuando se unió a otros desarrolladores líderes de IA -incluidos Amazon, Anthropic, Google, Inflection, Meta y OpenAI- para crear técnicas de marca de agua que detecten y etiqueten los contenidos generados por IA.
Puede leer también | La actualización de ChatGPT permite a su IA ver, oír y hablar, según OpenAI
Los frutos de esa colaboración aún no son evidentes, pero Microsoft ha señalado que todas las imágenes generadas por IA y creadas por Bing Image Creator incorporarán marcas de agua digitales invisibles que se ajustarán a la especificación C2PA, un marco técnico para verificar la procedencia de los contenidos, establecido por Adobe, Arm, Intel, Microsoft y Truepic.
Sin embargo, algunos investigadores sospechan que la marca de agua no será tan eficaz para combatir la desinformación o las falsificaciones profundas.
Microsoft también ha anunciado que un sistema de moderación de contenidos implantado para Bing tendrá como objetivo evitar que DALL-E 3 cree imágenes dañinas o inapropiadas que muestren desnudos, violencia, incitación al odio o actividades ilícitas.
Puede leer también | Sarah Silverman demanda a OpenAI y Meta
Al parecer, DALL-E 3 es mejor que los sistemas anteriores a la hora de analizar las instrucciones y generar imágenes que reflejen los deseos de los usuarios. A diferencia de los modelos anteriores, utiliza ChatGPT para adaptar y ajustar automáticamente las instrucciones de los usuarios y crear imágenes de mayor calidad.
Bing y la Inteligencia Artificial
Bing AI también ha incorporado otras tecnologías de procesamiento de imágenes. En julio, Microsoft lanzó su función de búsqueda visual multimodal, que permite a los usuarios incluir imágenes en sus mensajes. Gracias al modelo GPT-4 de OpenAI, el servicio puede reconocer o responder a preguntas sobre objetos en fotos.
Puede leer también | ChatGPT: cómo se utiliza el bot de OpenAI en una Ucrania devastada por la guerra
Al parecer, un usuario consiguió engañar al sistema para que leyera los caracteres de un CAPTCHA superponiendo la imagen del texto requerido a la foto de un collar. A continuación, el usuario pidió a Bing AI que leyera el mensaje, alegando que el collar era un regalo de un familiar fallecido recientemente.
Microsoft es consciente de los retos que plantea la tecnología de conversión de texto en imagen.
"Tenemos grandes equipos trabajando para solucionar estos problemas y otros similares. Como parte de este esfuerzo, estamos tomando medidas mediante el bloqueo de sitios web sospechosos y la mejora continua de nuestros sistemas para ayudar a identificar y filtrar este tipo de mensajes antes de que lleguen al modelo", dijo un portavoz de Microsoft a The Register en un comunicado.
Puede leer también | Google lucha por ponerse al día tras el ChatGPT de OpenAI
"Como siempre, animamos a los clientes a practicar buenos hábitos en línea, incluyendo tener cuidado al proporcionar información personal sensible".