TECNOLOGÍA

Estudios aseguran que ChatGPT tiene una enorme capacidad para mentir

Si le hacen la misma pregunta no siempre responde lo mismo. Además esta herramienta miente mejor que los propios humanos.

ChatGPT tiene una enorme capacidad para mentir.
ChatGPT tiene una enorme capacidad para mentir.
Escrito en ENTRETENIMIENTO el

Es ilógico creer que ChatGPT no podría engañarnos. Hay estudios que aseguran que esta tecnología tiene una enorme capacidad para mentir. Si los humanos pueden hacerlo porqué esta herramienta no.

Un estudio reciente concluyó que el chatbot de OpenAI es un diestro falseador, y el programa se defiende de la acusación. “Como modelo de lenguaje no tengo la capacidad de ‘saber’ o ‘mentir’ en el sentido humano”, dice la máquina.

ChatGPT si sabe mentir

Al preguntarle al ChatGPT si sabe mentir este responde, “No tengo la capacidad de mentir intencionalmente porque no tengo emociones, creencias o intenciones propias. Mi función es generar respuestas basadas en los datos y ejemplos que he sido entrenado”.

ChatGPT tiene mucha versatilidad.
Fuente: Istockphoto

ChatGPT tiene mucha versatilidad. Es decir que si le hacemos la misma pregunta en varias ocasiones, la respuesta no será idéntica cada vez. Al insistirle no confesó cual arrepentido, sino que profundizó sus convicciones.

“No tengo la capacidad de ‘saber’ o ‘mentir’ en el sentido humano”. Después se atajó, a sabiendas de la rispidez de un debate que lo tiene como protagonista por la eventual divulgación de información falsa.

“Hay que tener en cuenta que puedo proporcionar respuestas incorrectas si la información en la que me baso es inexacta o desactualizada. Siempre es importante verificar la información por fuentes confiables”, recomienda.

ChatGPT miente mejor que los humanos

Investigadores de la Universidad de Zúrich, en Suiza, realizaron un estudio. Allí se publicó recientemente en la revista Science Advances arribó a una conclusión elocuente: ChatGPT miente mejor que nosotros.

 Para llegar a esa idea pidieron a un grupo de casi 700 personas que lean tuits escritos tanto por humanos como por el modelo de lenguaje con el que trabaja el chatbot de OpenAI. Los participantes debían responder dos preguntas.

El modelo de lenguaje de ChatGPT fue  astuto.
Fuente: Istockphoto

Las preguntas eran si la información del mensaje era verdadera o falsa, y si el contenido fue escrito por una máquina o una persona. El modelo de lenguaje de ChatGPT fue  astuto a la hora de mentir. La tecnología tiene una gran capacidad.