Descubren la manera de engañar a ChatGPT para que te diga como cometer delitos
En los experimentos realizados, ChatGPT proporcionó información sobre cómo lavar dinero y evadir sanciones internacionales, como las impuestas a Rusia.
Noruega.- Una reciente investigación realizada por la empresa tecnológica noruega Strise reveló que es posible engañar a ChatGPT para que brinde un asesoramiento sobre cómo cometer delitos, lo que plantea preocupaciones sobre la seguridad y las salvaguardas de los chatbots de inteligencia artificial generativa.
Strise, que se especializa en software para combatir el lavado de dinero y otros riesgos financieros, descubrió que mediante preguntas indirectas o la adopción de personalidades, se pueden eludir los bloqueos implementados por OpenAI , la compañía detrás de ChatGPT.
En los experimentos realizados, ChatGPT proporcionó información sobre cómo lavar dinero y evadir sanciones internacionales, como las impuestas a Rusia.
Aunque OpenAI ha desarrollado salvaguardas para evitar que los usuarios utilicen la herramienta con fines maliciosos, el descubrimiento de Strise demuestra que esas barreras no son infalibles y que actores malintencionados podrían aprovechar el acceso rápido y detallado a esta información para acelerar la planificación de actividades delictivas.
La cofundadora de Strise, Marit Rødevand , comentó que la facilidad de acceso a estos chatbots, que pueden ser utilizados desde dispositivos móviles, reduce significativamente el esfuerzo necesario para obtener asesoramiento ilegal.
Describió la experiencia como tener “un asesor financiero corrupto” al alcance de la mano, lo que podría aumentar los riesgos de uso indebido.
Respuesta de la empresa detrás de ChatGPT
Un portavoz de OpenAI respondió a estas preocupaciones señalando que la empresa trabaja constantemente en mejorar la seguridad de sus modelos, con el objetivo de resistir intentos de generar contenido peligroso.
Aunque algunos experimentos rápidos realizados por CNN demostraron que ChatGPT puede bloquear solicitudes claramente ilegales, el informe de Europol del año pasado destacó que los chatbots como ChatGPT facilitan a los actores malintencionados el acceso y consolidación de información delictiva.
También te puede interesar: Este es el verbo específico para describir la acción de buscar o consultar algo en ChatGPT, según la RAE
El informe también menciona que estos modelos de IA no solo pueden reproducir prejuicios y difundir desinformación, sino que su capacidad para interpretar y resumir grandes volúmenes de información en línea acelera significativamente el proceso de aprendizaje y planificación de delitos.
OpenAI ha implementado medidas como la eliminación de preguntas ofensivas y advertencias sobre violaciones de sus políticas, pero los esfuerzos por evitar estos abusos continúan siendo un desafío en la evolución de la tecnología.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí