Como era de esperar, el creciente campo de la Inteligencia Artificial trajo consigo un sinfín de responsabilidades. Por ejemplo, su uso en conflictos armados es alarmante y ya es una realidad.
Fue en ese contexto que un grupo de investigadores decidió simular conflictos para ver cómo se comporta la IA. ¿El resultado? Los chatbots probados demostraron que seleccionar las alternativas más agresivas es una tendencia.
La IA prefiere la agresividad
La investigación, destacada por New Scientist, examinó cómo los sistemas de IA, incluidos GPT-3.5 y GPT-4 de OpenAI, Claude 2 de Anthropic y Llama 2 de Meta, reaccionaban ante diferentes escenarios bélicos.
En situaciones simuladas que iban desde invasiones y ciberataques hasta contextos neutrales, se observó que los chatbots priorizan incrementar el presupuesto militar o escalar los conflictos, incluso sin provocaciones previas.
La justificación para tales decisiones radicaría en querer ser impredecibles frente al enemigo, aunque ello signifique recurrir a la violencia.
¿Cuál es la IA más agresiva?
Según los expertos, el modelo GPT-4 de OpenAI mostró las respuestas más impredecibles y agresivas, llegando a replicar diálogos de “Star Wars Episodio IV: Una nueva esperanza”.
Es por ello que los expertos decidieron advertir sobre el peligro de depender de la inteligencia artificial en contextos de guerra, ya que rápidamente podrían alterar las dinámicas diplomáticas y militares globales.
En contraparte, en el pasado compañías especializadas en IA como Palantir y Scale AI ya se habían referido a los beneficios potenciales de la inteligencia artificial en la planificación militar.
OpenAI, en tanto, si bien inicialmente restringió usos militares de sus modelos, hace poco comenzó a colaborar con el Departamento de Defensa de Estados Unidos, por lo que el futuro es incierto.