Pablo Rodríguez, director d’Innovación de Google, qu’inaugura mañana la XI Selmana de la Ciencia «Margarita Salas»: «La IA ye como entestar 800 años de saber humanu nun semestre». «Siempres intento aplicar una cosa qu’aprendí en casa, n’Asturies: si daqué ye importante tienes que poder esplicalo de forma clara». LNE / Va inaugurar mañana, a les 19.30 hores, nel Club LA NUEVA ESPAÑA, la XI Selmana de la Ciencia «Margarita Salas».
Pablo Rodríguez (La Felguera, 1972) ye unu de los grandes espertos mundiales n’intelixencia artificial (IA) y exerz de director d’innovación en Google dientro de la Oficina Global del Director de Tecnoloxía (OCTO), onde trabaya nel campu de la IA y nel espardimientu de la innovación tecnolóxica de la multinacional nel mundu.
L’espertu asturianu vive ente Barcelona y San Francisco, ye un líder en tecnoloxía ya intelixencia artificial reconocíu pola so capacidá p’antemanar el futuru, impulsar innovación disruptiva y conectala col propósitu humanu. Combina les facetes d’entamador, executivu, científicu y divulgador. La so pasión céntrase na «IA responsable». Ye autor del llibro «Intelixencia Artificial: cómo va camudar el mundu (y la to vida)», onde analiza en fondura l’impactu social de los datos y la IA.
Entrevista
En su trayectoria ha combinado ciencia, empresa e innovación. ¿Cuál ha sido el punto de inflexión que marcó su visión actual sobre la inteligencia artificial?
Desde su experiencia en organizaciones líderes como Google o Telefónica, ¿qué distingue realmente a una empresa innovadora de otra que solo adopta tecnología?
La diferencia es la tolerancia a la incertidumbre y el riesgo. Adoptar tecnología es incorporar algo que ya funciona; innovar es construir cuando todavía no hay garantías. No basta con comprar o usar tecnología. La diferencia real está en si una organización es capaz de cambiar sus procesos, compartir datos de forma útil y escalable, y crear una cultura donde se pueda experimentar. Muchas empresas digitalizan, muchas menos reinventan cómo trabajan. Innovar no es usar lo último; es atreverse a construir lo que todavía no existe.
Habla con frecuencia de «inteligencia artificial responsable». ¿Qué implica realmente este concepto y qué riesgos debemos evitar como sociedad?
La competitividad de un modelo de IA como Gemini no nace solo de su potencia técnica, sino de una visión donde la «IA responsable» es sinónimo de ingeniería de calidad. Si desplegamos sistemas que van a influir en decisiones relevantes, tienen que ser robustos, auditables, éticos, seguros y fiables.
La IA está transformando el empleo a gran velocidad. ¿Qué habilidades deben desarrollar hoy los jóvenes?
La IA no sustituye a las personas, sustituye tareas. El valor humano se desplaza menos hacia la repetición, y más hacia el criterio, la creatividad, la capacidad de aprender, colaborar y formular buenas preguntas. Quienes saben apoyarse bien en estas herramientas de IA pueden mejorar mucho su productividad. A medio plazo, lo decisivo no será solo saber usar IA, sino saber pensar con claridad, trabajar con otros y entender qué problemas merece la pena resolver.
En su libro analiza el impacto de estas tecnologías. ¿Qué cambio será el más profundo en los próximos 10 años?
Será la aceleración del descubrimiento. Estamos pasando de una IA que ayuda a buscar o recomendar contenidos a una IA que inventa. Durante mucho tiempo asociamos la IA a recomendarnos contenidos o automatizar tareas. Eso seguirá ahí, pero lo más importante está en otro sitio: ciencia, salud, energía, educación, los nuevos materiales. Lo que estamos viendo con sistemas de IA de apoyo a científicos es una locura absoluta, con un aumento potencial de un 39% de las ideas patentables. En solo unos meses, se han descubierto, por ejemplo, millones de materiales nuevos y estructuras que nunca habían existido en la naturaleza. Es como haber condensado 800 años de ciencia humana en un semestre. Podremos enfocarnos en problemas que han permanecido mucho tiempo sin resolver.
Si pudiera transmitir una sola idea al público de la Semana de la Ciencia, ¿cuál sería el mensaje clave sobre el futuro de la tecnología y la humanidad?
Que el futuro no nos sucede: lo construimos. Estamos viviendo no solo una época de cambio, sino un cambio de época. Y eso exige ambición, pero también responsabilidad. Vamos a tener herramientas potentísimas. La cuestión decisiva es con qué propósito las usamos.
Se habla mucho de que la inteligencia artificial cambiará el mundo, ¿subestimamos o exageramos su impacto?
En las tecnologías siempre decimos que a corto plazo tendemos a amplificar la oportunidad; pero a largo plazo solemos quedarnos cortos sobre el impacto estructural. Lo más importante de la IA probablemente no será lo más visible hoy. Será su efecto acumulado en ciencia, educación, industria, salud y productividad en años venideros.
Si la inteligencia artificial toma decisiones cada vez más complejas, ¿quién debería asumir la responsabilidad cuando algo salga mal?
Cuanto más potente es la herramienta, más importante es que existan buenos marcos de supervisión, gobernanza y responsabilidad. La regulación europea sobre la IA va en esta dirección. La IA necesita de buenos datos, plataformas sin sesgos, seguras, auditables, certificadas con principios éticos, con el individuo en el centro y respetando la privacidad.
Desaparecerán trabajos. ¿Estamos siendo honestos sobre el coste social o estamos evitando una conversación incómoda?
Es una conversación que debemos afrontar con total seriedad. Toda gran transformación tecnológica genera tensiones. El impacto real está en la capacidad de amplificar lo que somos capaces de hacer. En Google, el 30% de nuestro código nuevo ya lo genera la IA, lo que nos permite ser más productivos de lo que éramos hace apenas un año. Yo soy optimista: la IA nos dará las capacidades que necesitamos para resolver grandes retos. Hoy, cualquiera tiene a su disposición un «equipo de expertos» que antes solo estaba al alcance de grandes multinacionales. Esto permite a la gente soñar en grande.
La historia de la tecnología está llena de promesas de progreso. ¿Qué le hace pensar que esta vez no cometeremos los mismos errores?
Innovar siempre implica riesgo. La diferencia es que hoy llegamos a esta revolución con más conciencia de sus implicaciones, más capacidad de medir impacto y más conversación pública. Eso mejora nuestras posibilidades de corregir a tiempo. A lo largo de mi trayectoria he visto ideas nacer, lo mismo usando la IA para analizar cómo juega el FC Barcelona, la cocina del Bulli, o en conversaciones sobre salud, redes, o la creatividad. Y en todos esos sitios pasa lo mismo: cuando mezclas mundos que no deberían encajar… aparece algo nuevo.
Vive entre Barcelona y San Francisco, ¿que queda en usted de Asturias?
