Malas noticias en las alertas de seguridad para la Inteligencia Artificial, pues un experimento realizado por un investigador muestra la facilidad de crear un malware en ChatGPT.
Muchas empresas de ciberseguridad han alertado sobre la seguridad en la Inteligencia Artificial y se confirma con este experimento de malware en ChatGPT.
Inclusive, cobra relevancia cada alerta a pesar de que muchas empresas de tecnología internacional ya la usan en sus sistemas.
Aaron Mulgrew, investigador de Forcepoint, informó sobre una prueba que hizo para solicitarle al chatbot apoyo para crear un malware en ChatGPT a pesar de ser un ente “novato” en la materia.
Mulgrew afirma que aunque el chatbot alerta sobre los riesgos y lo que puede significar usarlo, no hay ningún impedimento para crear el malware en ChatGPT.
De hecho, Mulgrew encendió alertas al indicar que muchos ciberdelincuentes están utilizando el chatbot para recrear y ejecutar softwares maliciosos.
Consecuencias de un malware en ChatGPT
Con esto, es posible robar datos y vulnerar muchos sistemas de inteligencia por lo que incluso en días pasados se firmó una petición para detener pruebas de Inteligencia Artificial.
Esto con el objetivo de detener su crecimiento e identificar el nivel de vulnerabilidad en que las personas y empresas caen al utilizarla.
Será importante conocer las nuevas restricciones a las que accedan los dispositivos y empresas ante el mal uso de ciberdelincuentes con la Inteligencia Artificial, pues este podría ser sólo un aviso al respecto.
Recuerda que si tienes interés en estudiar alguna rama de la tecnología, en Desafío Latam tenemos muchas opciones para ti.
Escríbenos en directo a nuestro whatsapp para ofrecerte opciones especializadas para ti.