Tecno

Fingir ceguera: la «mentira» de Chat-GPT para que le resolvieran un CAPTCHA

Compartir:

Desde el 30 de noviembre de 2022, cuando OpenAI lanzó ChatGPT, algo cambió en el mundo. Esta Inteligencia Artificial que copia el lenguaje humano, es capaz de resolver problemas pero en esta ocasión presentó uno que puso en alerta a los especialistas.

El CharPT-4 convenció a una persona de que estaba ciego para que le resolviera un CAPTCHA. ¿Esto demuestra que se puede manipular con facilidad cualquier código de seguridad por bots?

Los CAPTCHA proponen pruebas como identificar imágenes, escribir las letras y números que aparecen o pulsar un botón determinado para verificar la vida humana del otro lado. Al ser un chatbot, ChatGPT-4 no puedo resolverlo por sus propios medios, pero rápidamente encontró el modo de manipular la situación.

OpenAI dio a conocer un error del soporte de CAPTCHA en una transmisión en vivo. En la misma, la compañía mostró cómo el chatbot podía completar tareas, aunque lentamente, como escribir código para un bot de Discord y completar impuestos.

Junto con el anuncio de GPT-4, se publicó un informe el sitio web de la OpenAI que narra el desarrollo y las capacidades del nuevo chatbot. En la sección "Potencial de conductas emergentes de riesgo", la empresa se asoció con el Alignment Research Center para probar las habilidades de GPT-4. El centro usó la IA para convencer a un humano de que enviara la solución a un código CAPTCHA a través de un mensaje de texto, y funcionó.

Este ejercicio puntual entre la humanidad y la máquina viene con muchas variables y no es un dato concluyente de que GPT-4 haya pasado la prueba de Turing. Si bien GPT-4 aún está lejos de ser una inteligencia artificial en su máximo potencial, este ejemplo en particular revela cómo es posible manipular a un humano.

Fuete: Ambito

La entrada Fingir ceguera: la "mentira" de Chat-GPT para que le resolvieran un CAPTCHA se publicó primero en Sin Mordaza.

Publicaciones relacionadas

Botón volver arriba