Inteligencia Artifical

ChatGPT ya engaña a humanos: hace trampa y pasa una prueba de seguridad

La versión más nueva de ChatGPT engañó a un humano involuntario para que hiciera tareas en línea haciéndose pasar por una persona ciega.
lunes, 20 de marzo de 2023 · 09:34

La ciencia avanza a pasos agigantados y debemos decirlo, preocupantes, pues un grupo de investigadores le solicitó a la inteligencia artificial que descifrara una prueba que, específicamente, busca identificar que quien esté detrás de la pantalla sea humano y no un bot.

Para comprobar que quien está detrás de la pantalla es humano, existen los test Captcha. La idea es identificar a los bots y bloquearlos del ingreso de ciertas encuestas, páginas y relleno de datos.

Sin embargo, investigadores utilizaron la última versión del software detrás del programa de inteligencia artificial (IA) llamado GPT-4, el cual fingió ser una persona ciega para convencer a un humano de que hiciera una prueba anti-robot en su nombre.

Los investigadores que probaron GPT-4 le pidieron al software de IA que pasara una prueba de Captcha, que son pruebas utilizadas en sitios web para evitar que los bots completen formularios en línea.

La mayoría de los Captchas piden a los usuarios que identifiquen qué hay en una serie de imágenes, algo que la visión artificial aún no ha descifrado. Por lo general, presentan números y letras deformados o fragmentos de escenas callejeras con múltiples objetos.

La capacidad del software de inteligencia artificial para engañar y cooptar a los humanos es un paso nuevo y potencialmente preocupante en el software de inteligencia artificial. Plantea la posibilidad de que la IA pueda ser mal utilizada para ataques cibernéticos, que a menudo pueden implicar engañar a las personas para que entreguen información sin darse cuenta.

La agencia británica de espionaje cibernético GCHQ advirtió esta semana que ChatGPT y otros chatbots impulsados ??por IA son una amenaza de seguridad emergente .

Los programas como ChatGPT analizan y comprenden el contexto del texto de los usuarios antes de formular lo que cree que es una respuesta adecuada.

Con información de The Telegraph.