Ramón López de Mántaras. Pionero de la IA en nuestro país. ”Hago lo que llamo una dieta digital, pasando muchas más horas en el mundo analógico. Guardo al máximo mi privacidad; deshabilito cookies, tapo la cámara, no me dejo localizar”

López de Mántaras Badia es profesor de investigación del CSIC y director-fundador del Instituto de Investigación en Inteligencia Artificial. Es uno de los pioneros de la inteligencia artificial en España.

¿Por qué es más pesimista ahora que hace unos años?

Entonces la situación era muy distinta. Éramos muchas menos personas trabajando en este campo y había muchísimo por hacer. Teníamos una actitud esperanzadora e ilusionada. La ilusión no se ha perdido. Pero vemos con inquietud algunos de los impactos sociales y geopolíticos de la inteligencia artificial.

¿Se quedará gran parte de la población sin trabajo?

Nadie tiene la respuesta. Muchas veces se habla de puestos de trabajo, creo que es un error. Hay que hablar de tareas dentro de un puesto de trabajo. Algunas tareas serán sustituidas por máquinas, otras no. Por ejemplo, detectar patrones en una radiografía es algo que una máquina puede hacer bien. Pero un radiólogo hace mucho más que detectar patrones.

¿La IA amenaza la supervivencia de la humanidad?

Para mí esta es una opinión completamente errónea. Da a entender que habrá superinteligencias que nos superarán en todo. ¿Por qué tomarían la decisión de extinguir la humanidad o de esclavizarnos? La IA no tiene objetivos propios, somos nosotros los que le damos objetivos. Es cierto que le podemos llevar a tomar decisiones contraproducentes. Pero de todas las posibles causas de extinción de la humanidad, para mí la IA está muy hacia la cola. Me preocupan mucho más el cambio climático y los conflictos bélicos.

Entonces, ¿cuáles son los riesgos de la IA que le preocupan?

Tenemos ya bastantes riesgos encima de la mesa. Por ejemplo, el impacto de los grandes modelos de lenguaje [como ChatGPT] que generan multitud de falsedades. Se pueden generar imágenes, vídeos y textos de manera malintencionada, y crear tensiones a nivel social o influir en elecciones democráticas. Esto es un riesgo importantísimo y no tiene solución técnica.

¿Algún otro gran riesgo?

Que la capacidad de hacer todo esto está en las manos de unos pocos, de unas grandes empresas tecnológicas, cinco o seis, que tienen más poder que muchos estados y que son los que están marcando las pautas de hacia dónde va la IA. Y lo que además es contradictorio es que algunos de ellos se presentan como posibles salvadores de todos estos problemas.

¿En quién está pensando?

En Elon Musk. O en Sam Altman de OpenAI [la empresa de ChatGPT], que va diciendo “cuidado, que todo esto es muy peligroso, pero yo no, yo soy buena persona, confiad en mí para que yo pueda evitar estos peligros”. Esto es perverso, porque lo que le interesa es el beneficio de su empresa. Intenta que se regule con el fin de cortar las alas al código abierto. Porque ya han surgido alternativas a los grandes modelos de lenguaje en código abierto, o sea, desarrollados de manera colaborativa, y creo que les asusta perder cuota de mercado.

¿Qué le preocupa más, la inteligencia artificial o la estupidez humana?

Mucho más la estupidez humana. El problema no es el monstruo de Frankenstein, el problema es el doctor Frankenstein que crea el monstruo.

¿Quiere decir que la IA puede ser nuestro Frankenstein, el monstruo humanizado que escapa al control de sus creadores?

En ciertos casos, lo podríamos decir. Pero, si escapa al control, no será porque la IA tenga objetivos, deseos y creencias propias. Será porque hay personas que lo provocan, que están interesadas en que esto ocurra. Una máquina no tiene agencia moral, las personas son responsables últimas de todo.

¿Adopta algún tipo de precaución particular al interactuar con la IA como ciudadano?

Procuro hacer lo que llamo una dieta digital. Pienso que estamos digitalizando mal, que estamos expulsando del sistema a muchísima gente, no solo por cuestiones de edad, sino también por cuestiones económicas. Y la propia administración pública lo está haciendo muy mal, al no dar prácticamente alternativas no digitales para muchas gestiones.

¿En qué consiste su dieta digital?

En pasar muchas más horas en el mundo analógico. Es decir, hablar cara a cara con las personas, pocas redes sociales, utilizar las máquinas con sentido común… También intento guardar al máximo mi privacidad deshabilitando cookies, diciendo que no a los permisos para saber lo que estás haciendo y detectar tu perfil…

¿Prefiere navegar en modo incógnito?

Sí, absolutamente. Si accedo a Wikipedia, me da igual. Pero muchas veces uso el modo incógnito.

¿Tapa la cámara para evitar el reconocimiento facial?

Si hago una reunión por videoconferencia, entonces normalmente no la tapo. Pero, si no, generalmente sí.

¿Alguna prevención particular a la hora de hacer compras?

Hago muy pocas compras por internet. Hay un aspecto de privacidad, porque lo que compras es una información importante sobre tus preferencias. Pero también porque es parte de la dieta digital. Me gusta más ir a comprar un libro a una librería e inter­actuar con las personas que comprarlo por internet. Este ele­mento de socialización para mí es importante.

¿Se deja geolocalizar?

Generalmente no, por privacidad. Obviamente, si creo que me va a facilitar las cosas para llegar antes a mi destino o ver dónde hay un parking, tengo que habilitar la ubicación. Pero lo hago solo para casos muy concretos.

¿Qué soluciones propone para proteger las aplicaciones positivas de la IA y limitar las negativas?

Siempre que se pueda, utilizar el recurso de la educación y la información. Los futuros ingenieros tienen que ser capaces de plantearse: “Esto es factible tecnológicamente, ¿pero debo hacerlo?”.

¿No cree que esto Musk y Zuckerberg ya se lo han planteado?

No lo creo. Siguen otra máxima. Haz las cosas rápido aunque las rompas. El problema es que las cosas que rompes pueden ser vidas.

¿Alguna otra solución si con la educación no basta?

La otra es una regulación bien hecha, que venga de abajo hacia arriba, donde todos los interesados sean consultados, y no que venga desde media docena de grandes plataformas tecnológicas. El modelo que está haciendo la Unión Europea con el AI Act va por el buen camino, porque consulta a una enorme cantidad de personas que pueden estar afectadas por las aplicaciones de la inteligencia artificial. No creo que esta regulación pueda retrasar el avance tecnológico en Europa, como dicen algunos. Al contrario, puede ser un valor añadido porque puedes decir “mi producto es más confiable”. Es como comprar un medicamento que haya pasado todos los controles. El hecho de que una inteligencia artificial esté regulada y certificada puede ser una ventaja a nivel de mercado. J. Corbella

También te podría gustar...