Los sistemas de Inteligencia Artificial (IA) han crecido a niveles insospechados. Por el momento nos tienen fascinados con lo que pueden hacer y la profundidad de las respuestas que brindan. Pero Elon Musk tiene miedo sobre el potencial sobre esta tecnología si se usa en una guerra, particularmente con drones.
Hace unas horas acabamos de publicar un curioso ensayo y duelo de entidades. En donde preguntamos tanto a ChatGPT como a Google Bard su opinión sobre las Leyes de la Robótica de Isaac Asimov y cómo podrían romper dichas reglas.
Al final ambas plataformas entregaron un texto extenso con su análisis sobre cada postulado, cerrando con una reflexión sobre su relevancia real actual ante la tecnología moderna y qué acciones podrían implementar para violar dichas normas.
El resultado del experimento que ejecutamos aquí en FayerWayer resultó perturbador y nos ayuda a dimensionar exactamente qué es lo que le preocupa a Elon Musk.
Estos sistemas de Inteligencia Artificial han crecido de manera impresionante y se encuentran en un punto donde la transparencia de su desarrollo y los límites reales de su ejecución no son muy claros.
Y estos serían factores de franca preocupación si se usara esta tecnología en un contexto militar o bélico.
Elon Musk tiene miedo de lo que podría hacer una Inteligencia Artificial si se usan drones en una guerrra
Resulta que el diario del Wall Street Journal acaba de hacer su tradicional CEO Council Summit en Londrés, donde Elon Musk fue convocado para brindar una charla y terminó hablando de su más grande preocupación actualmente.
El evento, según reporta el medio británico de The Evening Standard, reúne a múltiples directores ejecutivos para hablar sobre cómo navegan en el mundo de los negocios frente a una audiencia global.
Y en esta edición tuvo como una de las intervenciones más importante la de Elon Musk, quien terminó hablando sobre los riesgos futuros de los sistemas de Inteligencia Artificial:
“Creo que generalmente operamos con la suposición de que la civilización es sólida y nada se puede derribar, un sentimiento que ha sido común a lo largo de la historia entre los imperios poco antes de que se desmoronen.
Existe el riesgo de que, a medida que los sistemas de IA mejoren, eliminen o restrinja el crecimiento de la humanidad. Hay un elemento de superinteligencia que es en gran medida una espada de doble filo.
Sospecho que los primeros usos gubernamentales de la IA sería con armas. Entonces, tener armas más avanzadas en el campo de batalla que puedan reaccionar más rápido que cualquier humano es realmente de lo que la Inteligencia Artificial sería capaz.
Cualquier guerra futura entre países avanzados o al menos países con capacidad de drones será en gran medida una guerra de drones.”
En sí Musk considera que estamos al final de una fase de imperio y que el mundo como lo conocemos podría colapsar en cualquier momento, siendo los sistemas de Inteligencia Artificial ahora una pieza clave para ese destino.