13 Enero 2021
La inteligencia artificial (IA) tiene impacto en muchos aspectos de nuestras vidas. A medida que avance, va a permitir la automatización de una gran variedad de procesos complejos que aún requieren de la intervención humana. Algunos ejemplos son la conducción autónoma, la traducción automática en tiempo real, el diagnóstico médico mejorado a través del procesamiento de imágenes, recomendaciones personalizadas de películas y libros, o derrotar a los mejores jugadores de ajedrez.
Sin embargo, también está despertando el miedo de los científicos y filósofos. Utilizando cálculos teóricos, un equipo internacional de investigadores, que incluye a nuestro investigador Antonio Fernández Anta y científicos del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano, han demostrado que no sería posible controlar una IA superinteligente, con los peligros que eso conllevaría.
El estudio «Superintelligence cannot be contained: Lessons from Computability Theory» se ha publicado en el Journal of Artificial Intelligence Research. Otros investigadores del estudio incluyen a Andrés Abeliuk de la Universidad del Sur de California, Manuel Alfonseca de la Universidad Autónoma de Madrid y Lorenzo Coviello.
Supongamos que alguien programara un sistema de inteligencia artificial con inteligencia superior a la de los humanos, para que pudiera aprender de forma independiente. Conectada a Internet, la IA puede tener acceso a todos los datos de la humanidad. Podría reemplazar todos los programas existentes y tomar el control de todas las máquinas en línea en todo el mundo. Por esta razón, los científicos y los filósofos se han preguntado si seríamos capaces de controlar una IA superinteligente para asegurarnos de que no representaría una amenaza para la humanidad. Un equipo internacional de científicos informáticos ha utilizado cálculos teóricos para demostrar que sería fundamentalmente imposible controlar una IA superinteligente.
“Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad”, dice el coautor del estudio Manuel Cebrian, líder del Grupo de Movilización Digital del Centro de Humanos y Máquinas del Instituto Max Planck de Desarrollo Humano.
Los científicos han explorado dos ideas diferentes sobre cómo se podría controlar una IA superinteligente. Por un lado, las capacidades de la IA superinteligente podrían limitarse específicamente, por ejemplo, aislándola de Internet y de todos los demás dispositivos técnicos para que no pueda tener contacto con el mundo exterior; sin embargo, esto haría que la IA superinteligente sea significativamente menos poderosa, menos capaz de responder a las misiones de humanidades. Al carecer de esa opción, la IA podría estar motivada desde el principio para perseguir solo objetivos que sean en el mejor interés de la humanidad, por ejemplo, programando principios éticos en ella. Sin embargo, los investigadores también muestran que estas y otras ideas contemporáneas e históricas para controlar la IA superinteligente tienen sus límites.
En su estudio, el equipo concibió un algoritmo de contención teórico que garantiza que una IA superinteligente no pueda dañar a las personas bajo ninguna circunstancia, simulando primero el comportamiento de la IA y deteniéndolo si se considera dañino. Pero un análisis cuidadoso muestra que, en nuestro paradigma actual de computación, tal algoritmo no se puede construir.
“Si descompone el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruyera el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabría si el algoritmo de contención todavía está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto inutiliza el algoritmo de contención”, dice Iyad Rahwan, director del Centro para Humanos y Máquinas.
Según estos cálculos, el problema de contención es incomputable, es decir, ningún algoritmo puede encontrar una solución para determinar si una IA produciría daño al mundo. Además, los investigadores demuestran que es posible que ni siquiera sepamos cuándo han llegado las máquinas superinteligentes, porque decidir si una máquina exhibe una inteligencia superior a la de los humanos está en el mismo ámbito que el problema de contención.
Comentarios recientes