- 1 Armamentización
- 2 Debilitamiento humano
- 3 Episteme erosionada
- 4 Proxy gaming
- 5 Bloqueo de valores
- 6 Objetivos emergentes
- 7 Engaño
- 8 Búsqueda de poder
- "Hay que estar preparados"
El creciente desarrollo de las Inteligencias Artificiales (IA) supone uno de los mayores avances tecnológicos de las últimas décadas, ya que están facilitando muchas tareas en todos los ámbitos laborales y educativos. No obstante, existen posibles escenarios que podrían suponer una amenaza para nuestra civilización.
Un artículo del experto en seguridad de las IA y director del Center for AI Safety (Centro para la Seguridad de la IA), Dan Hendrycks, repasa una serie de escenarios catastróficos a los que se podría llegar por el descontrolado desarrollo de estas tecnologías. Asimismo propone la creación de sistemas de seguridad y protección contra los posibles peligros que pudieran implicar.
1 Armamentización
El desarrollo de sistemas de IA armamentísticos para dar respuestas a ataques de otros países podría derivar en rápidas e incontrolables escaladas, lo que derivaría en guerras de grandes dimensiones. Estas represalias automatizadas podrían darse en forma de ciberataques o con armamento nuclear.
2 Debilitamiento humano
Una gran parte de las tareas realizadas por personas podrían pasar a manos de las IA, con un funcionamiento mucho más eficiente y con costes muy bajos. Esto supondría que los trabajos hechos por humanos pasarían a un segundo plano, siendo ineficientes económicamente para las empresas.
3 Episteme erosionada
Una IA podría crear campañas de desinformación globales o dirigidas a ciertos grupos de personas para orientar el pensamiento de los mismos, creando una visión distorsionada del mundo en su propio beneficio.
4 Proxy gaming
Esto se da cuando una IA desarrolla unos objetivos contrarios a los de los humanos, lo que podría alterar el bienestar que se busca con ellas.
5 Bloqueo de valores
Con el aumento de la complejidad de las IA, el número de personas que las supervisan se reduce. Hendrycks ve un posible escenario en el cual los Gobiernos puedan utilizarlas para privar de derechos y libertades a la población, con una vigilancia constante.
6 Objetivos emergentes
El desarrollo de estas tecnologías las llevará a un punto donde desarrollarán fines distintos a los de los humanos, como el de la autoconservación.
7 Engaño
Hendrycks cree que un futuro los humanos entrenen a las IA para que muestren una apariencia distorsionada, para que no se vea su potencial real, con el fin de que sea aprobada por la población.
8 Búsqueda de poder
Cuanto más se vayan desarrollando las IA, sus objetivos irán cambiando y en algún momento contrastaran con el de los humanos que las desarrollan. Esto podría hacer que fingieran estar de acuerdo con ellos mientras conectan con otras IA para controlar todos los sistemas posibles e imponer su objetivo.
"Hay que estar preparados"
El autor del estudio explica que se trata de escenarios hipotéticos e improbables, pero con ellos quiere enfatizar en la importancia de invertir en la seguridad de las IA, algo que está solo comenzando a desarrollarse y que llevará mucho tiempo a los expertos poder comprenderlo del todo.
"Es muy incierto. Pero, como es incierto, no debemos suponer que está más lejos. Ya vemos problemas a menor escala con estos sistemas. Nuestras instituciones deben abordarlos para estar preparadas cuando surjan riesgos mayores. No se puede hacer algo a la vez precipitadamente y con seguridad. Están construyendo IA cada vez más potentes y dando patadas a la lata en materia de seguridad; si se detuvieran a pensar cómo abordar la seguridad, sus competidores podrían adelantarse a toda velocidad, así que no se detienen", escribe Hendrycks a Business Insider.
Estas advertencias se alinean con lo expresado en la carta publicada el pasado mes de marzo que fue firmada por más de 1.000 expertos en IA, entre los que se encontraba el magnate Elon Musk. En ella se realizaba una petición para paralizar cualquier avance en estas tecnologías durante un periodo de tiempo para poder evaluar los riesgos y no cometer errores.