Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

OpenAI lanza una función para detectar textos escritos por inteligencias artificiales como ChatGPT

Sede de OpenAI en San Francisco.

Carlos del Castillo

1 de febrero de 2023 10:31 h

1

La aparición de la inteligencia artificial ChatGPT ha abierto numerosos debates sobre el futuro de esta tecnología. Uno de ellos gira alrededor del plagio, ya que su capacidad para escribir textos perfectamente articulados sobre múltiples temáticas hace muy difícil detectar si un escrito lleva su firma o es obra de una persona. OpenAI, su desarrolladora, prometió lanzar una herramienta para analizar si un texto ha sido escrito por ChatGPT u otras inteligencias artificiales de su clase y así ayudar a mitigar el problema. La función ya está disponible.

La máquina se ha construido a partir de una modificación de GPT, la tecnología base de ChatGPT para “predecir la probabilidad de que un texto haya sido generado por IA a partir de diversas fuentes, como ChatGPT”, explica OpenAI, que la ha denominado “Clasificador de textos de IA”. La herramienta etiqueta cada documento en una escala de cinco posibles valoraciones: muy improbable, improbable, confuso, probable o muy probablemente generado por IA.

OpenAI adelanta que para analizar un texto correctamente se le deben suministrar al menos unos 1.000 caracteres, que equivalen a entre 150 y 200 palabras. No obstante, la empresa reconoce que el Clasificador “no siempre es preciso; puede etiquetar erróneamente tanto el texto generado por IA como el escrito por humanos” y además se le puede engañar “fácilmente” añadiendo al texto elementos escritos por una persona. A esto hay que añadir que ha sido entrenado con escritos preparados por adultos en inglés, por lo que por el momento “es probable que el clasificador se equivoque en textos escritos por niños y en textos que no estén en inglés”.

Recomendamos que el Clasificador se utilice sólo como un factor entre muchos otros cuando se emplee como parte de una investigación para determinar el origen de un contenido

OpenAI

“El uso que pretendemos dar al clasificador de textos de IA es fomentar el debate sobre la distinción entre contenidos escritos por humanos y contenidos generados por IA. Los resultados pueden ayudar, pero no deben ser la única prueba, a la hora de decidir si un documento ha sido generado con IA. El modelo se ha entrenado con texto escrito por humanos procedente de diversas fuentes, lo que puede no ser representativo de todos los tipos de texto escrito por humanos”, advierte OpenAI.

No es una herramienta anticopia para profesores

La principal polémica acerca de los plagios a través de ChatGPT se ha dado en el entorno estudiantil. Varias instituciones educativas, como las escuelas de Nueva York o Los Ángeles y las universidades australianas, han prohibido su uso a los estudiantes tras detectar que muchos ya lo estaban usando para sus deberes. Sin embargo, OpenAI advierte que el Clasificador no ha sido entrenado para este uso y que por lo tanto tampoco es fiable.

“Prevemos que el principal caso de uso será el de las personas que intenten confirmar que un texto que se les ha enviado está escrito por personas. Advertimos que el modelo no se ha evaluado detenidamente en muchos de los principales objetivos previstos, como trabajos de estudiantes, campañas de desinformación automatizadas o transcripciones de chats. De hecho, se sabe que los clasificadores basados en redes neuronales se calibran mal fuera de sus datos de entrenamiento”, advierte.

Los técnicos de la empresa recuerdan que este tipo de herramientas suelen tener una vida corta y que lo más seguro es que rápidamente se perfeccionen las técnicas para engañarlas. “Debido a estas limitaciones, recomendamos que el Clasificador se utilice sólo como un factor entre muchos otros cuando se emplee como parte de una investigación para determinar el origen de un contenido”, concluyen.

Etiquetas
stats