Si los humanos se enfrentaran a la inteligencia artificial, los resultados serían devastadores para nosotros, según Eliezer Yudkowsky.
Eliezer Yudkowsky es un experto en temas de inteligencia artificial. En un artículo publicado en la revista Time, este personaje hizo alusión a una carta abierta firmada por personajes como Elon Musk y Steve Wozniak acerca de la inteligencia artificial. En ella, ambos coinciden en que es necesario poner un alto al desarrollo de esta clase de tecnología, por lo menos, en los siguientes seis meses.
Yudkowsky no participó en la firma de la carta del Future of Life Institute. En una postura totalmente propia, el experto afirma que el desarrollo de la inteligencia artificial debería detenerse de manera indefinida. Solo de esa manera, el mundo podría tener una idea de cómo desarrollarla con seguridad.
“Todos en la Tierra morirán”
En su texto, que lleva por título “Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo”, Yudkowsky hizo una afirmación que nos hace ver que para este experto, la IA representa algo más que una simple tecnología programada.
“Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán. […] No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos”.
El experto criticó a la compañía OpenAI, responsable del desarrollo de ChatGPT y que ahora mismo se encuentra entrenando a GPT-5, por planear “que alguna futura inteligencia artificial haga la tarea de alineación de IA”.
Esto consiste en que las acciones y los objetivos de una IA sean los mismos que los que tienen sus desarrolladores o usuarios.
“No estamos listos. No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo”, afirma de manera contundente Yudkowsky.
Una IA hostil y peligrosa
Si los humanos se enfrentaran a la inteligencia artificial, los resultados serían devastadores para nosotros, según Yudkowsky.
El experto visualiza una IA sobrehumana hostil. Yudkowsky la concibe como “toda una civilización alienígena pensando a millones de veces la velocidad humana, inicialmente confinada en los ordenadores”.
También afirma que esta IA podría construir formas de vida artificiales o incluso dedicarse a “la fabricación molecular posbiológica”.
Yudkowsky es cofundador del Instituto de Investigación de la Inteligencia de las Máquinas. También es uno de los pioneros en el campo de la inteligencia artificial amigable, que busca ser compatible con los valores humanos. Ha dedicado más de 20 años al desarrollo de una inteligencia artificial benéfica y útil para la humanidad.
Muy Interesante México