Una de las zonas grises en el uso de la Inteligencia Artificial, sobre todo de herramientas utilizadas en la generación de textos como es ChatGPT y nuevos lanzamientos como BARD de Google, es la discusión sobre los usos éticos de la IA y el desafío de identificar la generación de contenido desarrollado por humanos y los que han sido generados, completa o parcialmente por Inteligencia Artificial.
Es por ello que uno de los grandes impulsores de IA generativa, como es OpenIA, en enero de este año había hecho público el lanzamiento de un detector de contenido o clasificador de IA para indicar texto escrito por IA. La idea era que con su clasificador entrenado podría distinguir entre texto escrito por IA y escrito por humanos.
Sin embargo, recientemente (y tal como se informa en una nota referida a esta noticia), OpenAI «ha desconectado silenciosamente AI Classifier, su herramienta para detectar textos generados por IA. Según la empresa, fallaba tres de cada cuatro veces. En algunos caso, incluso, la tasa de aciertos era aún peor. En realidad, detrás de este fracaso se ocultan razones que son tan antiguas como la falsificación. Con el paso del tiempo, las copias se han vuelto más perfectas. Ahora el reto tiene una dificultad añadida: los detectores ya no se enfrentan a la obra de un humano, sino que tiene que lidiar con un texto o una imagen que en realidad puede esconder millones de operaciones matemáticas hechas por una inteligencia artificial».
Versión oficial del cierre
La versión oficial de la empresa es que «a partir del 20 de julio de 2023, el clasificador de IA ya no está disponible debido a su baja tasa de precisión. Estamos trabajando para incorporar comentarios y actualmente estamos investigando técnicas de procedencia más efectivas para el texto, y nos hemos comprometido a desarrollar e implementar mecanismos que permitan a los usuarios comprender si el contenido de audio o visual es generado por IA».
Si uno ingresa al link del clasificador de OpenIA, ya no se encuentra habilitado.
Razones de fallos de detectores
Es importante considerar que las IAs generativas están en constante evolución. Para Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la Universidad Nacional de Educación a Distancia (UNED) y especialista en inteligencia artificial, esto implica que incluso si se entrena «un detector que inicialmente sea capaz de identificar con cierta precisión, la IA seguirá evolucionando y el detector dejará de funcionar, porque ha sido entrenado con texto generado por IAs anteriores».
El problema del uso cada vez más recurrente de Inteligencia Artificial se da porque trae aparejado el aumento de problemas de desinformación, plagio, pérdida de originalidad y asunción de sesgos como verdad, toda vez que los resultados generados por IA pueden tener como base de entrenamiento información que contenga estos elementos antes mencionados.
Solos los llamados «falsos positivos» (es decir, texto generado por humanos y que es clasificado como hecho por IA) los que han demostrado que los sistemas de detección no evolucionan con la misma rapidez que las herramientas generadoras, lo que genera desconfianza en uso o toma de decisiones basadas en sus respuestas.
La Constitución hecha por IA
De hecho, recientemente una noticia informaba que un detector de IA asegura que la Constitución de EEUU está «escrita en su totalidad» por una inteligencia artificial. GPTZero, detector de textos escritos por inteligencia artificial, indica que la Constitución de Estados Unidos está escrita por dicha tecnología.
La justificación dada por Edward Tian (creador de GPTZero) señala que «la Constitución de Estados Unidos es un texto que se introduce repetidamente en los datos de entrenamiento de bastantes modelos lingüísticos. Como resultado, muchos de estos grandes modelos lingüísticos están entrenados para generar textos similares a la Constitución y otros textos de entrenamiento utilizados con frecuencia. GPTZero predice el texto que probablemente generarán los grandes modelos lingüísticos, y así se produce este fascinante error».
Se genera, por tanto, la legítima desconfianza que más de algún documento, trabajo, información o texto haya sido o no generada en parte o totalmente por IA como también de que la posible detección de material generado por IA y detectado por IA sea efectivamente tal o un falso positivo.
Es importante tener en consideración estos aspectos técnicos y éticos cuando se discuta sobre regulación de Inteligencia Artificial o establezca marcos de acción para su desarrollo y utilización.