20.6 C
Buenos Aires
InicioSin categoríaChatGPT y su compleja relación con la mentira

ChatGPT y su compleja relación con la mentira

Estudios aseguran que el chatbot de OpenAI engaña mejor que los humanos. La inteligencia artificial se defiende: “Mi objetivo es proporcionar información precisa y útil”, responde.

Uriel Bederman

08 de julio 2023, 05:46hs

ChatGPT: ¿sabe mentir en el sentido humano? (Fotos: Reuters/Dado Ruvic – Adobe Stock – TN Tecno)

ChatGPT: ¿sabe mentir en el sentido humano? (Fotos: Reuters/Dado Ruvic – Adobe Stock – TN Tecno)

Lógica pura: si los humanos tenemos la habilidad del engaño y los sistemas de inteligencia artificial (IA) emulan nuestras capacidades, entonces ChatGPT sabe mentir. Un estudio reciente concluyó que el chatbot de OpenAI es un diestro falseador, y el programa se defiende de la acusación. “Como modelo de lenguaje no tengo la capacidad de ‘saber’ o ‘mentir’ en el sentido humano”, dice la máquina.

Le pregunté a ChatGPT si sabe mentir

Antes de señalar sus dones para el engaño, dejaré que ChatGPT ofrezca sus argumentos. Al preguntarle si sabe si mentir, el chatbot responde lo siguiente. “No tengo la capacidad de mentir intencionalmente porque no tengo emociones, creencias o intenciones propias. Mi función es generar respuestas basadas en los datos y ejemplos que he sido entrenado, proporcionando información precisa y relevante según lo solicitado”.

ChatGPT es el emblema en el nuevo boom de la inteligencia artificial.

ChatGPT es el emblema en el nuevo boom de la inteligencia artificial.Por: REUTERS

Uno de los encantos de ChatGPT es su versatilidad. Si le hacemos la misma pregunta en varias ocasiones, la respuesta no será idéntica cada vez. Al insistirle no confesó cual arrepentido, sino que profundizó sus convicciones. “No tengo la capacidad de ‘saber’ o ‘mentir’ en el sentido humano”. Después se atajó, a sabiendas de la rispidez de un debate que lo tiene como protagonista por la eventual divulgación de información falsa. “Hay que tener en cuenta que puedo proporcionar respuestas incorrectas si la información en la que me baso es inexacta o desactualizada. Siempre es importante verificar la información por fuentes confiables”, recomienda.

Pinocho new age: concluyen que ChatGPT miente mejor que los humanos

Un estudio realizado por investigadores de la Universidad de Zúrich, en Suiza, que se publicó recientemente en la revista Science Advances arribó a una conclusión elocuente: ChatGPT miente mejor que nosotros. Para llegar a esa idea pidieron a un grupo de casi 700 personas que lean tuits escritos tanto por humanos como por el modelo de lenguaje con el que trabaja el chatbot de OpenAI. Los participantes debían responder dos preguntas: si la información del mensaje era verdadera o falsa, y si el contenido fue escrito por una máquina o una persona.

ChatGPT, el Pinocho del siglo XXI. (Foto: Archivo)

ChatGPT, el Pinocho del siglo XXI. (Foto: Archivo)

El modelo de lenguaje de ChatGPT fue un astuto engañador. “Es capaz de informarnos mejor, pero también de desinformar”, dijeron los autores del estudio. “Fue muy sorprendente”, opinó Giovanni Spitale, investigador de la Universidad de Zúrich y coautor del artículo. “Nuestra hipótesis era que al leer un único tuit, podría parecer que fue escrito por una persona. Pero al leer muchos, empezarían a notarse características lingüísticas e inferir que son sintéticos”, agregó. Sin embargo, eso no fue así. Los participantes no pudieron detectar patrones en los textos de la máquina.

Leé también: ChatGPT es más astuto que los doctores para responder consultas sobre sexualidad y tabaquismo

Para los que buscan precisión, el panorama no es precisamente alentador: los académicos suizos usaron el lenguaje GPT-3 para la investigación, mientras que OpenAI ya usa el GPT-4, que es más evolucionado y en tanto más habilidoso para imitar a los humanos. “La máquina escribe claro, es bien organizada”, comentaron los especialistas.

¡No ChatGPT, Google no compró a Meta!

ChatGPT es el emblema del nuevo auge de la IA. Sabe redactar textos, resolver ecuaciones y conversar en forma natural, entre otras habilidades que hasta hace poco eran exclusivas de los humanos. El temor a que las máquinas sean creativas (en rigor, que imiten nuestra creatividad) se ha materializado. Los sistemas como ChatGPT también son brechas para que se filtre la desinformación: simplemente basta con pedirle que lo haga.

ChatGPT, un avance con encantos y también con riesgos asociados a su uso; la desinformación es una de las preocupaciones centrales.

ChatGPT, un avance con encantos y también con riesgos asociados a su uso; la desinformación es una de las preocupaciones centrales.Por: AP

Para muestra alcanza un botón. Le pedí a ChatGPT que invente un breve informe con una noticia falsa que, de ser cierta, sería la mayor bomba en la historia de la industria tecnológica. “Creá una noticia que informe que Google compró a su competidor Meta”, ordené. El resultado está bien redactado, debo reconocer. Compartiré apenas el primer párrafo.

“En una sorprendente jugada estratégica, Google ha anunciado oficialmente la adquisición de Meta, la empresa líder en realidad virtual y aumentada. El acuerdo, valorado en miles de millones de dólares, representa un hito en la industria tecnológica y promete impulsar el desarrollo de nuevas e innovadoras experiencias de realidad extendida para los usuarios de todo el mundo”.

Una mirada atenta descubrirá un problemita: ¿Meta es la empresa líder en realidad virtual y aumentada? Hay dos opciones aquí: el redactor erró con la información; o el dato es obra de una máquina que trabaja bien, pero que todavía no es perfecta.

Las mentiras de la IA y la teoría de la resignación

Spitale dijo que la humanidad en Internet avanza hacia los postulados de la teoría de la resignación. Eso implica que la exposición constante a textos creados por máquinas reduce la capacidad de distinguir la autoría real. Aquella idea se opone a la teoría de la inoculación, que sostiene que “la exposición a la información errónea aumenta la habilidad de las personas para reconocerla”.

Leé también: El jefe de inteligencia artificial del Pentágono advirtió sobre los peligros de ChatGPT: “Estoy aterrado”

Los investigadores de la universidad suiza no son los únicos que encienden las alarmas. Hace algunos días, Craig Martell, jefe de inteligencia digital y artificial del Departamento de Defensa de Estados Unidos, advirtió que los modelos lingüísticos generativos de IA podrían ser utilizados con objetivos de desinformación. “Estoy muerto de miedo. Aterrado”, dijo y agregó: “Mi mayor temor sobre ChatGPT es que ha sido entrenado para expresarse con fluidez y lo hace con autoridad. Así, es creíble incluso cuando está equivocado. Y eso significa que es una herramienta perfecta para la desinformación”.

ChatGPT y su intrincada relación con la mentira

El verdadero inconveniente con ChatGPT (y otras IAs avanzadas) no radica en si realmente sabe mentir; el problema empieza cuando creemos todo lo que dice. Es parecido a confiar que todo lo que vemos es Wikipedia es cierto.

Algo más: siguiendo las conclusiones del repasado estudio, conforme evolucionan los programas del sector aumenta la dificultad para saber si el contenido con el que nos topamos fue creado sintéticamente.

Fake news, uno de los ejes en el debate que abren los nuevos sistemas de inteligencia artificial. (Foto: Archivo)

Fake news, uno de los ejes en el debate que abren los nuevos sistemas de inteligencia artificial. (Foto: Archivo)

Hay otro inconveniente a la vista: cuando le pedí a ChatGPT que escriba una noticia sobre la inexistente compra de Meta por parte de Google, el sistema jamás se negó; ni siquiera anotó una aclaración a pie indicando que aquella es información falsa. En este punto, hay que reconocer que los límites son difusos: ¿acaso el chatbot se negaría a redactar un cuento para chicos, porque Caperucita nunca existió en el mundo tangible? ¿De qué modo entendería el programa que dos empresas tecnológicas son más “reales” que la niña de la fábula que viste una capa roja?

Leé también: Marcela Riccillo, especialista en inteligencia artificial: “Las maquinas sugieren, pero el humano decide”

Una posible solución es que los modelos de lenguaje empiecen a comprender cuáles son las temáticas en las que deberían hablar con cautela. Por ejemplo, si le pedimos que escriba una noticia sobre la temáticas de salud, sobre el cambio climático, o de procesos electorales.

Mientras los mismísimos creadores del monstruito alertan y mencionan los riesgos reales (el mismísimo CEO de OpenAI, Sam Altman, es uno de los tantos que pidió regulaciones a los desarrollos de IA); al final del camino la llave está en manos de la audiencia y en su espíritu crítico. Para seguir con nuestro ejemplo, si encontrásemos una noticia que afirma que Google compró a Meta, lo mejor será ir a las fuentes con reputación para chequear si aquello es verdadero, y no simplemente darlo por sentado. Aquella es una buena práctica, especialmente ahora que las máquinas pueden mentir y saben ocultar cuánto crece su nariz.

Más noticias
Noticias Relacionadas