La inteligencia artificial podría caer en malas manos, advierten expertos
Expertos internacionales alertan en un informe publicado el miércoles sobre los riesgos de un uso malintencionado de la inteligencia artificial por parte de “Estados corruptos, de criminales o de terroristas” en un futuro cercano.
Según ellos, en la próxima década, la eficacia creciente de la inteligencia artificial (IA) podría reforzar la cibercriminalidad y conducir al uso de drones o robots con fines terroristas. Podría también facilitar la manipulación de elecciones a través de las redes sociales mediante cuentas automatizadas (bots).
Este extenso informe de 100 páginas fue redactado por 26 expertos especialistas en IA, ciberseguridad y robótica de prestigiosas universidades (Cambridge, Oxford, Yale, Stanford) y organismos no gubernamentales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).
Estos expertos piden a los gobiernos y a los diferentes actores de este campo que pongan en pie mecanismos para limitar las posibles amenazas relacionadas con la inteligencia artificial.
“Creemos que los ataques que serían posibles por el uso creciente de la IA serán particularmente efectivos, finamente dirigidos y difíciles de atribuir”, advierten.
Para ilustrar sus temores, estos especialistas mencionan varios “escenarios hipotéticos de usos malintencionado de la IA”.
Explican por ejemplo que terroristas podrían alterar los sistemas de IA disponibles en los comercios (drones o vehículos autónomos) para causar accidentes o explosiones.