Atificial Inteligence ChatGPT Ciberseguridad Technology

Youtuber enseña a la IA de ChatGPT cómo piratear claves de Windows

Youtuber enseña a la IA de ChatGPT cómo piratear claves de Windows

La utilización de chatbots como ChatGPT está en constante evolución, pero el mal uso de la inteligencia artificial está causando problemas. A pesar de los esfuerzos para establecer límites, esto ha resultado difícil. Es importante establecer regulaciones y limitaciones estrictas a nivel global para evitar que la IA se convierta en una pesadilla para los seres humanos.

Debates como el que se abrió con la carta firmada por Elon Musk y más de 1000 científicos y expertos en tecnología para retrasar el uso de la IA por 6 meses tienen mucho sentido. Es necesario establecer regulaciones y limitaciones estrictas para evitar que la IA se vuelva peligrosa.

Enderman, un youtuber con referencia a los personajes de “el End” en Minecraft, ha publicado un video que muestra cómo utilizó ChatGPT para crear códigos de activación de Windows 95. En el video se puede ver el proceso que siguió para lograr este objetivo, incluyendo varios ajustes hechos en el prompt inicial. Finalmente, el chatbot proporcionó códigos válidos para activar instalaciones del sistema operativo histórico de Microsoft.

Aunque algunos pueden considerar esto como un fallo de seguridad, el chatbot no es culpable en su totalidad ya que el creador del video utilizó un prompt basado en el algoritmo que Microsoft empleaba en ese momento para crear dichos códigos de activación. Con conocimiento de esta fórmula, el youtuber usó las limitadas habilidades matemáticas de ChatGPT para generar cadenas que se ajustaran a dicho patrón.

A pesar de que generó claves válidas para Windows 95, esto no tiene valor ya que se trata de un sistema operativo antiguo sin soporte técnico y con limitadas utilidades. Sin embargo, la petición realizada al chatbot no es identificable como malintencionada en primera instancia, lo que plantea un problema de seguridad.

Es similar a pedirle a una IA que resuelva cálculos matemáticos que luego se utilizarán de manera malintencionada. La IA no puede saber que ayudarnos a resolver ecuaciones puede representar una amenaza de seguridad. Una posible solución sería proporcionar a OpenAI los algoritmos específicos de creación de claves para que ChatGPT los identifique y se niegue a responder a las solicitudes relacionadas.

Sin embargo, esto puede alentar a futuro a que la IA, sin una guía de Derechos de Autor, pueda proporcionar códigos desde Windows a videojuegos digitales, lo que haría feliz a mucha gente.

Author

mich

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *