El Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) ha dado un paso significativo en el campo de la inteligencia artificial (IA) con el lanzamiento de NIST GenAI, una plataforma diseñada para evaluar tecnologías de IA generativa, incluyendo la generación de texto e imágenes. Esta iniciativa, anunciada recientemente por el NIST, tiene como objetivo principal distinguir entre medios generados por humanos y aquellos generados por IA.
NIST GenAI definirá puntos de referencia cruciales y ayudará en la construcción de sistemas de detección de "autenticidad de contenido", lo que fomentará el desarrollo de software para identificar fuentes de información falsa o engañosa generada por IA. Este anuncio marca un hito importante en el ámbito de la IA, ya que refleja la creciente necesidad de abordar los desafíos y riesgos asociados con la proliferación de contenido generado por IA.
El programa NIST GenAI presenta una serie de objetivos ambiciosos, entre los que se incluyen el desarrollo de conjuntos de datos, la asistencia en el desarrollo de tecnologías para determinar la autenticidad del contenido en diversas modalidades (texto, audio, imagen, video, código) y la realización de análisis comparativos utilizando indicadores relevantes. Además, se busca ayudar en el desarrollo de tecnologías para identificar la fuente de información falsa o engañosa.
El primer proyecto de NIST GenAI se enfoca en la investigación para crear sistemas capaces de distinguir de manera confiable los medios generados por humanos de aquellos generados por IA, comenzando con el texto. Para llevar a cabo este proyecto, el NIST invita a equipos de laboratorios académicos, industriales y de investigación a enviar generadores (sistemas de IA para crear contenido) o discriminadores (sistemas diseñados para identificar contenido generado por IA).
Los participantes deberán someterse a una serie de desafíos diseñados para evaluar y medir las capacidades y limitaciones de las tecnologías de IA generativa. El programa de evaluación se llevará a cabo en varias rondas, con la primera ronda programada para comenzar el 1 de mayo y concluir el 2 de agosto. Se espera que los resultados finales del estudio se publiquen en febrero de 2025.
El lanzamiento de NIST GenAI se produce en un momento en que la preocupación por la difusión de contenido generado por IA, como los deepfakes, está en aumento. Según datos de Clarity, una empresa de detección de deepfakes, este año se han creado y publicado un 900% más de deepfakes en comparación con el mismo período del año pasado. Esto ha generado preocupaciones sobre la autenticidad y la integridad de la información en línea.
El NIST GenAI forma parte de la respuesta del NIST a la orden ejecutiva del presidente Joe Biden sobre IA, que establece reglas para que las empresas de inteligencia artificial sean más transparentes sobre cómo funcionan sus modelos. Esta iniciativa refleja el compromiso del NIST de abordar los desafíos y riesgos asociados con el avance de la IA, al tiempo que promueve su desarrollo seguro y responsable.
En resumen, el lanzamiento de NIST GenAI representa un paso adelante en la evaluación y comprensión de las tecnologías de IA generativa. Al proporcionar una plataforma para evaluar la autenticidad del contenido generado por IA, el NIST está contribuyendo a garantizar la integridad de la información en un mundo cada vez más digitalizado y dependiente de la inteligencia artificial.