Geoffrey Hinton

Geoffrey Hinton es conocido como «el padrino de la inteligencia artificial».

Fue pionero en la investigación de redes neuronales y aprendizaje profundo, que allanó el camino para el desarrollo de sistemas actuales de Inteligencia Artificial (IA) como ChatGPT.bbcmundo.com

Un cerebro humano digital, hecho de redes interconectadas. Getty images-BBC

En esta área tecnológica, las redes neuronales son sistemas similares al cerebro humano por la forma en que aprenden y procesan la información. Permiten que los sistemas de IA aprendan de la experiencia, como lo haría una persona. Esto se llama aprendizaje profundo.

Después de renunciar a su trabajo en Google, el informático británico-canadiense se atrevió a cuestionar públicamente la actual carrera entre compañías tecnológicas para desarrollar productos de IA.

Hinton, de 75 años, asegura que esta tecnología amenaza a la humanidad porque funciona mejor que el cerebro humano y nadie puede garantizar que podrá ser controlada.

A corto plazo, advierte de tres peligros: la creación de contenido digital cuya veracidad será imposible de comprobar para el «usuario promedio», el reemplazo de trabajadores en una amplia gama de oficios y que los sistemas de IA se conviertan un día en armas autónomas, especies de «robots asesinos».

En entrevista con la BBC, Hinton dijo que los chatbots podrían superar pronto el nivel de información que contiene un cerebro humano, avances que cree que son «bastante aterradores».

¿Por qué tomó la decisión de renunciar a Google y hacer estas críticas contra el desarrollo de la IA?

Había varias razones. Una es que tengo 75 años, así que es hora de retirarme.

Otra razón es que quiero decir algunas cosas buenas sobre Google y son más creíbles si no trabajo para ellos.

Y por último, quería tener la libertad de hablar sobre los peligros de la IA sin preocuparme por el impacto que pueda tener en Google.

Usted dijo que Google actuó de manera muy responsable. ¿Habría sido más efectivo su mensaje si hubiera estado dentro de la compañía, con la capacidad de dirigir las decisiones?

Pensé eso por un tiempo y puede ser cierto. Pero creo que ahora puedo hablar libremente sobre cuáles podrían ser los peligros y algunos de ellos son bastante aterradores.

Lo importante es que muchos buenos científicos han trabajado en el tema de cómo podemos controlar estas cosas si llegan a ser más inteligentes que nosotros.

¿Confía en las empresas de tecnología para avanzar sobre estos temas con responsabilidad?

Creo que un problema es que Microsoft decidió poner uno de estos chatbots avanzados en (el buscador) Bing y en otros productos y Google no tiene más remedio que responder a eso. No puede simplemente sentarse y no competir con Microsoft.

Antes de eso, Google estaba a la cabeza de la IA y optó por no publicar estas cosas debido a todos los peligros. Los usaron internamente para mejorar la búsqueda, pero en realidad no los dieron a conocer al público, a pesar de que tenían chatbots, debido a los peligros potenciales.

Creo que Google ha sido responsable en ese sentido. Pero sólo puedes hacer eso cuando estás a la cabeza. Si estás compitiendo con la compañía que está usando estas cosas, también tienes que usarlas.

Microsoft no llegó a esta tecnología por su cuenta. Usted ha sido parte de la investigación que condujo a este desarrollo durante años. ¿Quién es responsable de que la IA haya alcanzado el punto donde está ahora?

Somos científicos. Estamos explorando lo que sucede cuando entrenamos grandes redes neuronales de computadoras y por eso terminamos aquí.

Es una de esas cosas que no hay forma de que la gente no vaya a explorar. El problema es que ahora que descubrimos que funciona mejor de lo que esperábamos hace unos años, ¿qué hacemos para mitigar los riesgos a largo plazo? Cosas más inteligentes que nosotros tomando el control.

Hablemos de esos riesgos. Usted dijo que le preocupan los malos actores. ¿Qué es lo que más le inquieta con respecto a cómo se podría utilizar esta tecnología?

Se ha hablado mucho sobre la posibilidad de producir automáticamente textos con información falsa. Se pueden crear herramientas muy efectivas que permitan a líderes autoritarios manipular a sus electores, por ejemplo.

Pero quiero hablar en particular del riesgo existencial de lo que sucede cuando estas cosas se vuelven más inteligentes que nosotros. Recientemente llegué a la conclusión de que el tipo de inteligencia que desarrollamos es muy diferente de la inteligencia que tenemos.

Somos sistemas biológicos y estos son sistemas digitales. La gran diferencia con los sistemas digitales es que tienes muchas copias del mismo conjunto, del mismo modelo del mundo, y todas estas copias pueden aprender por separado pero comparten su conocimiento al instante.

Es como si tuviéramos 10.000 personas y cada vez que una aprende algo, todas las demás lo aprenden automáticamente. Así es como estos sistemas logran saber mucho más que el resto.

Por Margarita Brito

Periodista con más de 20 años de experiencia en radio, televisión y prensa escrita. Esposa, madre y abuela. Escribo porque me gusta y porque nada me es ajeno.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *