texto generado por IA
SEO

Que siempre no: OpenAI es incapaz de identificar texto generado por IA

La capacidad de distinguir e identificar texto generado por IA, se convirtió, desde la llegada de estas herramientas a las manos del público, en una de las mayores necesidades por parte de diversos sectores de profesionistas, tales como docentes, investigadores, periodistas, etc.

También desde el inicio de la llegada de los LLM (Large Language Models), las empresas responsables de esas herramientas, en especial OpenAI, prácticamente aseguraron la eficacia de herramientas que serían capaces de identificar texto generado por IA.

Pero resulta que… siempre no. Veamos.

OpenAI cierra su herramienta de identificación de texto generado por IA, debido a su escasa precisión

En una entrada de blog (actualizada más tarde), OpenAI anunció su decisión de poner fin a su clasificador de IA a partir del 20 de julio.

La compañía afirmó estar trabajando en incorporar comentarios y actualmente investigando técnicas de procedencia más efectivas para el texto.

¿El motivo? Su escasa precisión para poder identificar texto generado por IA, del que escribe un humano.

Así lo hizo saber en el citado blog, afirmando que:

A partir del 20 de julio de 2023, el clasificador de IA dejará de estar disponible debido a su bajo índice de precisión. Estamos trabajando para incorporar los comentarios y actualmente investigamos técnicas de procedencia más eficaces para el texto, y nos hemos comprometido a desarrollar y desplegar mecanismos que permitan a los usuarios comprender si el contenido sonoro o visual está generado por IA.

New AI classifier for indicating AI-written text

Se mantiene el desarrollo de mecanismos para detectar la generación de contenidos por IA

Como podemos leer en su declaración, OpenAI afirmó que se mantienen trabajando en otra (u otras) herramienta que permita a los usuarios determinar si el contenido textual, de audio o visual ha sido generado por IA.

No obstante, todavía no se ha revelado cómo serán implementados esos mecanismos, ni si ya existe un avance significativo al respecto. Menos aún una fecha aproximada que permita al público tener una idea aproximada de cuándo estará lista dicha herramienta.

Admisión de la baja eficacia del clasificador para identificar texto generado por IA

OpenAI fue muy claro y reconoció sin rodeos que el clasificador nunca fue muy efectivo para detectar texto generado por IA.

Por ello, advirtió sobre la posibilidad de falsos positivos, es decir, textos escritos por humanos etiquetados como generados por IA.

Antes de cerrar la herramienta, OpenAI había mencionado que el clasificador podría mejorar con más datos. Pero está claro que esos datos ahora se usarán para entrenar una herramienta más eficiente.

Preocupación por el contenido generado por IA

Tras el éxito de ChatGPT de OpenAI, que se convirtió en una de las aplicaciones de crecimiento más rápido, muchas personas intentaron comprender la tecnología e identificaron sus riesgos.

Paralelamente, varios sectores expresaron su preocupación acerca de textos y arte generados por IA, especialmente los educadores, quienes temían que los estudiantes simplemente permitieran que ChatGPT escribiera sus tareas.

En Nueva York (y otras ciudades a lo largo del mundo), las escuelas incluso prohibieron el acceso a ChatGPT en sus instalaciones debido a preocupaciones sobre la precisión, seguridad y trampas.

El riesgo de la desinformación generada por IA

La desinformación a través de la IA también ha sido motivo de preocupación, con estudios que demuestran que el texto generado por IA, como tweets (ahora simplemente “publicaciones” o “posts” desde el cambio de nombre de Twitter a “X”), puede ser más convincente que los escritos por humanos.

Hasta el momento, los gobiernos aún no han encontrado la manera de controlar la IA y han dejado que grupos y organizaciones establezcan sus propias reglas y desarrollen medidas de protección para enfrentar el aluvión de texto generado por computadora.

Parece que, por ahora, nadie, ni siquiera la compañía que impulsó el auge de la IA generativa (OpenAI), tiene respuestas sobre cómo lidiar con todo esto. Aunque algunas personas resulten descubiertas usando las herramientas AI para hacer trampa, cada vez será más difícil diferenciar fácilmente el trabajo de la IA y el humano.

Desafíos para OpenAI y la investigación en confianza y seguridad

La presión para que las compañías responsables de las herramientas de IA es cada vez más grande: No sólo deben de guiarse por normas éticas en el entrenamiento y uso de tales aplicaciones, sino que también deben de proveer las herramientas necesarias para la correcta identificación del contenido generado por IA y aquel creado por humanos.

Por si lo anterior fuera poco, OpenAI perdió recientemente a su líder de “confianza y seguridad” en un momento en que la Comisión Federal de Comercio está investigando a la compañía para evaluar cómo verifica la información y los datos. OpenAI no ha se pronunciado, hasta el momento de escribir estas líneas, sobre el particular.


Otras lecturas que podrían interesarte:


Preguntas frecuentes sobre la Identificación de texto generado por IA

¿Por qué OpenAI cerró su herramienta de identificación de texto generado por IA?

OpenAI cerró su herramienta de identificación de texto generado por IA debido a su baja precisión. La compañía reconoció que el clasificador no era muy efectivo para distinguir entre texto escrito por humanos y texto generado por IA, lo que podría llevar a falsos positivos.

¿Qué planes tiene OpenAI para detectar contenidos generados por IA en el futuro?

A pesar del cierre de la herramienta actual, OpenAI afirmó que está trabajando en desarrollar y desplegar mecanismos que permitan a los usuarios determinar si el contenido, ya sea textual, de audio o visual, ha sido generado por IA. Sin embargo, aún no se han revelado detalles específicos sobre cómo funcionarán estos mecanismos o cuándo estarán disponibles.

¿Qué preocupaciones ha generado el contenido generado por IA en el ámbito educativo?

El éxito de ChatGPT y otras aplicaciones de IA ha suscitado preocupaciones en el ámbito educativo, especialmente entre los docentes. Existe el temor de que los estudiantes puedan depender de la IA para escribir sus tareas y trabajos académicos, lo que podría afectar la calidad del aprendizaje y promover el plagio.

¿Cuál es el riesgo asociado con la desinformación generada por IA?

La desinformación generada por IA es motivo de preocupación, ya que estudios han demostrado que textos generados por IA, como publicaciones en redes sociales, pueden resultar más convincentes que los escritos por humanos. Esto podría propagar noticias falsas y afectar la credibilidad de la información en línea.

¿Cuáles son los desafíos para OpenAI en relación con la confianza y seguridad de sus herramientas de IA?

OpenAI enfrenta el desafío de mantener altos estándares de confianza y seguridad en sus herramientas de IA. La empresa ha perdido a su líder de confianza y seguridad, y actualmente está siendo investigada por la Comisión Federal de Comercio para evaluar sus prácticas en la verificación de información y datos. Esta presión creciente exige que las empresas responsables de herramientas de IA se rijan por normas éticas y brinden recursos para identificar adecuadamente el contenido generado por IA y el humano.

Historiador, fotógrafo y analista SEO. Escribo también sobre videojuegos y me considero un divulgador del turismo y la cultura de Teziutlán (Puebla).

Deja un comentario