Skip to main content

¿Se puede frenar el desarrollo de la Inteligencia Artificial?


Hace unas semanas el Future of Life Institute, una organización sin fines de lucro, publicó una carta abierta a los laboratorios de inteligencia artificial para detener el entrenamiento de los sistemas de IA más poderosos durante al menos seis meses.

El temor es que la IA traiga "riesgos profundos para la sociedad y la humanidad".

Si bien es asombroso el alcance que tienen los usos de la inteligencia artificial, los riesgos son aún mayores. Aquellos que se pueden anticipar, testear y prevenir son los mejores; los peores son los que no vemos venir.

¿Quiénes temen a la inteligencia artificial?

El texto está firmado por más de 20 mil personalidades destacadas de la ciencia, la tecnología y las ciencias sociales. Los más sorprendentes fueron Elon Musk (quien fue parte de OpenIA y se fue en 2018) y Steve Wozniak (de Apple).

Un caso destacado es el del escritor e historiador Yuval Harari, quien reflexionó: “Los sistemas de inteligencia artificial con el poder de GPT-4 o mayor no deberían enredarse en las vidas de billones de personas a un ritmo más rápido de lo que las culturas pueden absorberlos de forma segura”.

“Una cortina de ilusiones podría descender sobre toda la humanidad y es posible que nunca más seamos capaces de correr esa cortina, o de darnos cuenta de que está ahí”, vaticinó.

Al mismo tiempo, el lingüista y filósofo Noam Chomsky dijo: “Esto es parte de lo que significa pensar. Para estar en lo cierto, debe ser posible equivocarse. La inteligencia consiste no solo en hacer conjeturas creativas sino en críticas creativas”.

“Si los humanos están limitados al tipo de explicaciones que podemos conjeturar racionalmente, el machine learning puede aprender, al mismo tiempo, que la tierra es plana y que es redonda”, advirtió.

En esta línea se expresó recientemente Sundar Pichai, el CEO de Google, que aunque no está incluido dentro de la carta, también prendió las alarmas. “Cómo se pueden desarrollar sistemas de inteligencia artificial que se alineen a los valores humanos, incluyendo la moralidad?”, se pregunta. “Creo que debe incluir no solo ingenieros sino también científicos sociales, expertos en ética, filósofos y más”.

Finalmente, el Comité Europeo de Protección de Datos (CEPD) también decidió intervenir en la discusión, ya que dudan que Chat GPT y otras herramientas de inteligencia artificial cumplan con la legislación vigente, sobre todo en materia de protección de datos.

Poner en pausa el desarrollo de la IA es imposible

Sam Altman, CEO de OpenAI, respondió que a la carta pidiendo una pausa le faltaban “matices técnicos al respecto de qué debería dejar de hacerse”, y aseguró que no se estaba trabajando en Chat GPT-5.

“Sin involucramiento gubernamental, es impráctico y casi imposible”, dijo Bill Gates. El mismo Musk que firmó la carta acaba de crear una nueva compañía de IA y dijo que todas las tecnológicas están comprando GPUs (procesadores que pueden realizar varias tareas al mismo tiempo, a diferencia de las CPUs), y que son clave para estos sistemas inteligentes.

Ponerle un freno al desarrollo tecnológico es como tapar el sol con las manos.