DeepMind ha publicado un muy interesante trabajo titulado «An Approach to Technical AGI Safety« que, lejos de ser un manual apocalíptico, nos invita a reflexionar con frialdad sobre los potenciales riesgos en el terreno de la ciberseguridad ante el advenimiento de la llamada inteligencia artificial general, o AGI.
Como en todas las buenas historias de ciencia ficción convertidas en realidad, pero parar su desarrollo es tan utópico como intentar apagar el sol.
El documento de DeepMind desglosa las amenazas tecnológicas que podrían derivarse de una AGI avanzada, que van desde la manipulación de sistemas críticos hasta la explotación de vulnerabilidades en infraestructuras globales. El documento desarrolla escenarios que, ya no podemos considerar más como de ciencia ficción. El análisis de escenarios nos recuerda que cualquier tecnología suficientemente poderosa conlleva riesgos inherentes, y en el caso de una AGI, el «peligro en potencia» se multiplica por la escala y la capacidad de acción de la máquina.
Este análisis resuena con otros trabajos relevantes en el campo, como «The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation«, un archivo de 2018 que ha circulado en diversos foros de discusión y que subraya cómo el mal uso de la inteligencia artificial es una amenaza real y creciente.