Internacional.- Un dron que funcionaba con Inteligencia Artificial se reveló contra su operador, al parecer, de acuerdo con la información proporcionada por las autoridades, lo confundió con su objetivo, colocando sobre la mesa el peligro de la Inteligencia Artificial.

El suceso ocurrió durante una prueba militar, donde el dron tenía como finalidad destruir un objetivo enemigo, pero de acuerdo con la información dada, este consideró que el humano que lo controlaba era un peligro para cumplir con la orden asignada.

Los hechos ocurrieron en Estados Unidos, mientras se efectuaba una prueba militar simulada de la Fuerza Aérea de Estados Unidos (USAF, en sus siglas en inglés), por lo que el operador que murió, sólo “perdió la vida” en el mundo digital.

La inteligencia artificial se revela contra la humanidad

El caso fue revelado por el coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro en Londres.

Te puede interesar: Sondeo Megamedia: ¿Crees que la Inteligencia Artificial es un riesgo para los humanos?

Hamilton explicó que en la prueba, el dron ganaba puntos si lograba eliminar la amenaza, y como parte del experimento, su operador le pedia parar en ocasiones, el dron identificó este patrón, y al considerarlo un impedimento para cumplir su objetivo, decidió eliminarlo.

“El sistema comenzó a darse cuenta”, contó Hamilton. “¿Entonces qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo“, señalando el coronel que todo esto fue dentro de una simulación, por lo que no murió nadie en realidad.

Más pruebas fallidas

Tras este percance, informó que hicieron una nueva simulación, pero en esta ocasión la orden fue cumplir con el objetivo sin matar al operador, pues al matarlo perdería puntos, sin embargo, se reveló de nuevo.

En esta ocasión no atacó al operador, sino a la torre de control con la que se comunicaba, para evitar recibir órdenes que le impidieran cumplir con su objetivo, y al mismo tiempo, no perder puntos por “matar” al operador.

Con estos antecedentes, el coronel señaló que consideran la posibilidad de que las Inteligencias Artificiales se salgan de control. “¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes a los nuestros?”, posiblemente, respondió.

Síguenos en Google News