Antonio Ortiz es coautor del podcast de IA más escuchado en castellano. Ñito Salas

Antonio Ortiz, divulgador en inteligencia artificial y coautor del podcast 'Monos estocásticos'

Antonio Ortiz, divulgador: «Una de las cosas que siempre nos distinguirá de la inteligencia artificial es desobedecer»

«DeepSeek es muy preocupante para las 'big tech' americanas, pero para muchas empresas que forman parte del ecosistema de la IA es una buena noticia»

Domingo, 2 de febrero 2025, 01:01

Antonio Ortiz (Málaga, 1977) es un tipo raro, en el mejor sentido de la palabra. Vamos, que hay pocos con un perfil como el suyo. Él se define como un «informático de letras», pues su pasión por la tecnología va mucho más allá de lo ... técnico y enlaza con la antropología, la economía, la política o la sociología, temas sobre los que lee vorazmente. Vuelca sus adictivos y eclécticos análisis en su blog 'Error500' y en 'Monos estocásticos', un podcast que hace a medias con su amigo Matías S. Zavia, que se ha convertido en el más escuchado sobre inteligencia artificial en castellano. Es, además, emprendedor: fue cofundador y director de estrategia de Weblogs, una de las comunidades de información más grande en el mundo hispanohablante, con medios como Xataka.

Publicidad

-Como analista tecnológico está viviendo un momento dorado: hay más gente que nunca intentando entender lo que está pasando.

-Absolutamente. Hasta la irrupción de la IA, las tecnologías que dominaban la conversación y el impacto económico habían llegado a un momento de madurez: el teléfono móvil, las grandes plataformas de Internet. Se producían pequeñas mejoras incrementales, pero nada demasiado excitante. Cuando emerge un nuevo candidato a ser la siguiente 'gran cosa' es un momento de necesidad de saber, de analizar, de entender, de elucubrar también. Y eso es lo que está pasando: con la IA ha emergido ese gran candidato.

-¿Qué ha hecho DeepSeek para que Silicon Valley y Wall Street hayan entrado en pánico?

Yo creo que entre Silicon Valley y Wall Street había un consenso que se basaba en tres cosas. La primera es que la inteligencia artificial es la tecnología de la década, si no del siglo. La segunda es que esa carrera la van a ganar las empresas de Estados Unidos. Y la tercera es que la IA va a ser enormemente intensiva en capital. Hay que montar megaconstrucciones de chips, 'data centers', centrales nucleares... Y eso se retroalimenta con el punto dos porque solo los gigantes empresariales estadounidenses serán capaces de afrontar esas inversiones. Se presenta el proyecto Stargate, Microsoft dice que se va a gastar 80.000 millones en 'data centers', Anthropic también hace una ronda de inversión brutal... ¿Y por qué DeepSeek es importante? Porque rompe los puntos dos y tres. Los estadounidenses se dan cuenta de que en los modelos de la inteligencia artificial no tienen ningún secreto industrial o científico no imitable; que sólo viendo desde fuera y con cuatro pinceladas los chinos lo replican a los pocos meses. Y además, lo han replicado más barato. No tan barato como lo han vendido, ojo. Pero sí que marca dos pautas: una, que es es posible que la generación de modelos del mejor nivel no sea tan intensiva en capital como se esperaba. Y dos: que los estadounidenses no tienen un secreto comercial y además, el veto a la importación de chips a China no les ha valido para marcar esta diferencia. Decía Steve Jobs que sólo los paranoicos sobreviven y Silicon Valley es de ponerse muy paranoico. Así que ahora viene una confrontación con los chinos que yo creo que se va a recrudecer.

-Para los gigantes de Silicon Valley han sido malas noticias, pero ¿puede que DeepSeek sea buena noticia para el resto de actores en el mercado de la IA?

-Absolutamente. Para las 'big tech' es un nubarrón preocupante porque otros han conseguido hacer algo muy parecido y lo están haciendo más barato. Pero para gran parte del ecosistema tecnológico y las empresas que usan la tecnología para su vertical de negocio, DeepSeek es buena noticia porque va a haber más inteligencia a menor precio. Si eres una empresa de 'cloud', que lo que vendes es tiempo de computación, te da igual vender R1 [el modelo de DeepSeek] que vender ChatGPT, incluso puedes aplicar más margen porque es un modelo más barato. Y luego hay un montón de empresas que no están en el negocio de la infraestructura, sino en la aplicación, en servicios.

Publicidad

-Ante la confrontación entre EE UU y China, Europa está como mirando un partido de tenis, ¿no? ¿Hay alguna esperanza de que dejemos de ser irrelevantes en esta batalla, de que surja un DeepSeek europeo?

-Europa tiene un problema: ahora parece querer cambiar el rumbo, pero el aparato legislativo europeo es un gran trasatlántico y virarlo va a va a costar mucho trabajo. El discurso imperante en la UE ya venía siendo el de la visión alienante de la tecnología en lo personal y del impacto negativo en lo social. Y llega la inteligencia artificial y dicen: ¡vamos a controlarla! Con una idea que es la que a mí me resulta más cuestionable, que es pensar que somos capaces de adivinar el impacto de una tecnología. Y lo que piensan es que ese impacto va a ser extremadamente negativo y que si no regulamos la IA antes de que se desarrolle acabará con la democracia y la civilización. Con la AI Act [Ley de Inteligencia Artificial europea], por ejemplo, modelos como DeepSeek serán inviables porque te dice que tienes que ser transparente con los datos de entrenamiento. Esto es algo que no cumple nadie. Ni OpenAI, ni Meta, ni Grok, ni Anthropic ni DeepSeek. ¿Por qué? Porque se han entrenado con todo lo que hay publicado en Internet. Y eso en algunas jurisdicciones les puede causar problemas judiciales porque está sobre la mesa si eso es violar el copyright. Ahora el Gobierno de España acaba de presentar ALIA, que es un modelo de lenguaje público. Podrían haberse basado en modelos libres como Llama, pero no, han dicho: vamos a entrenar uno y vamos a publicar los 'datasets' para cumplir la AI Act. ¿Qué pasa? que según se está viendo, este modelo parece estar entre el nivel de Llama 2 y Llama 3, es decir, que va como dos años por detrás. Y claro, la gente está criticando esto porque se han gastado 150 millones en un modelo que va dos años por detrás y que ninguna empresa, si quiere ser competitiva, va a usar. Esto no es un ejemplo de negligencia del gobierno, en mi opinión. Es un ejemplo de que Europa va a esta pelea con una mano atada a la espalda porque así lo hemos decidido.

Publicidad

-¿Toda la ley europea de IA está mal? ¿No salvaría nada?

-A mí hay una parte de la AI Act que me encanta, que es que el Estado no puede hacer un programa de vigilancia masiva que la inteligencia artificial podría facilitar. Pero en los aspectos más prácticos de cómo se desarrolla la tecnología, yo, como no soy apocalíptico ni creo que ChatGPT vaya a derivar en Terminator, creo que lo razonable hubiera sido: vamos a desarrollar, vamos a competir y luego, una vez visto el impacto tecnológico real, vamos a quedarnos con los casos beneficiosos y mitigamos o eliminamos los casos perjudiciales. Lo que no puedes caer es en una visión ingenua de que podemos desarrollar la tecnología y ser competitivos, pero además sólo vamos a tener efectos 100% positivos y nadie va a salir perjudicado. Eso nunca ha pasado en la historia. Nunca ha habido un cambio tecnológico en el que no haya habido ganadores y perdedores. Tú puedes decir: yo soy Europa y voy a cuidar de los perdedores. Me parece bien. Pero lo que no puedes es fantasear con un cambio tecnológico sin impacto negativo. Siempre hay unas clases sociales, unos grupos determinados, que salen perjudicados. En este caso es muy curioso porque los candidatos a ser perjudicados somos los profesionales del conocimiento y la creatividad. Y estos colectivos tienen mayor peso en la opinión pública y mayor capacidad de influir.

-Tras el discurso de Von Der Leyen, ¿cree que Europa va a virar el rumbo?

-Ahora, tras el informe de Draghi, hay una sensación en Europa de que nos hemos pasado de frenada y de que hay que poner el foco en el crecimiento, la competitividad, las empresas y la innovación. Yo creo que Europa tiene tres alternativas: una, ir a 'full' con la AI Act y seguir manteniendo que EE UU y China son los que están equivocados. Dos, intentar tener un pie en un lado y otro en otro. ¿Cómo? Mantengo la AI Act, pero cuando bajo a reglamentos concretos, soy lo más laxo posible. Esto me parece una cosa muy europea. Y tres: me la envaino, digo que me equivoqué (o que se equivocaron los que había antes) y arraso con la AI Act. Yo creo que eso no va a pasar. Creo que lo más probable será el segundo escenario.

Publicidad

-Desde luego, el debate que había entre los científicos y las empresas de IA estadounidenses sobre si hay que frenar el desarrollo de la IA hasta asegurar que no sea peligrosa para la humanidad parece haber desaparecido. Ahora su única preocupación es que no les adelanten los chinos.

-Bueno, el liderazgo económico y militar de Estados Unidos se basa en el liderazgo tecnológico. El acero en la I Guerra Mundial, la bomba nuclear en la II Guerra Mundial y los chips para los misiles teledirigidos que llevan a la victoria de la guerra de Irak y que a la vez son la base de la economía estadounidense de máximo valor añadido. Y ahora EE UU va a ir a 'full' a ganar la tecnología del siglo XXI, lo tienen clarísimo. Pero los chinos llevan veinte años preparándose, impulsando desde el Estado la inteligencia artificial. Eso se nota en la cantidad de doctorados, en el foco de las universidades, en qué empresas incentivan... A mí este escenario me recuerda mucho a la competencia tecnológica del siglo XX entre el bloque soviético y el bloque de Occidente. Estaba la carrera espacial, la carrera nuclear y la de los chips, que es una historia fascinante, porque en el mundo de los chips, los rusos científicamente eran igual que los americanos y en lo que no eran igual, conseguían espiar. Y llegó el momento Sputnik, cuando de repente Rusia pasó por encima de EE UU, literalmente. Y los americanos entraron en pánico y aceleraron. Había una cosa en que los americanos ganaban a los rusos, que es en la parte de ingeniería, de montar procesos y fábricas. En eso los estadounidenses eran súper competitivos y los soviéticos, en cambio, mucho peores. Por eso ganó la batalla EE UU. ¿Qué pasa con China? Que tú ves DeepSeek y es una gran obra de ingeniería. 'Machine learning' y 'deep learning', modelos de redes neuronales retroalimentados, el modelo Transformers, tokenización… todo eso es ciencia occidental. ¿Qué aporta DeepSeek? Una pequeña mejora en el proceso de aprendizaje por refuerzo aplicado al modelo de lenguaje y, sobre todo, super optimización para que sea más barato. Ingeniería muy buena. Entonces, ¿qué escenario nos espera en el siglo XX si el gran contendiente de EE UU es tan bueno como él en ingeniería, si no más? Pues empieza una carrera muy divertida.

Publicidad

-¿Se aventura a decir quién va a ganar?

-Hay un emprendedor y científico chino que se llama Kai-Fu Lee, que fue el brevísimo director de Google China, que tiene un libro sobre este tema, 'Superpotencias de la inteligencia artificial'. Lo escribió hace diez años y ya veía que ésta era la carrera tecnológica del siglo. Y él dice que va a ganar China. ¿Por qué? Porque una vez que está inventada la ciencia, la IA es cuestión de datos, de contenidos, de ingeniería y poner máquinas. Y él dice: en eso vamos a ganar los chinos porque Occidente tendrá obstáculos, distracciones… En China no nos pasa eso; el Estado dirá qué se hace y se hará. O sea, él cree que frente a lo que fue beneficioso para Estados Unidos en el siglo XX, que es la orientación al mercado, lo que dará la victoria a China es la visión de que el Estado y no el mercado es el que decide qué se hace. Yo, la verdad, no estoy convencido. Es más fácil apostar por Estados Unidos porque es el que ha ido ganando hasta ahora.

-Se puede argüir que China lo único que ha hecho es copiar y mejorar.

-Los grandes inventos son de Estados Unidos. Pero oye, esta semana todo científico de la IA de Estados Unidos está leyéndose los papers de DeepSeek. La gran pregunta, creo yo, es: ¿de quién ha sido realmente el momento Sputnik? Los americanos creen que DeepSeek es un nuevo Sputnik, en el que se han visto amenazado su liderazgo en la IA y ahora van a reaccionar, sacarán la bandera, sonará el himno y ganarán. Pero yo estoy empezando a sospechar que es posible que el momento Sputnik fuera de China cuando salió ChatGPT. Los chinos dijeron entonces: llevamos veinte años apostando por la IA y ahora los americanos nos pasan por encima. Y lo que estamos viendo ahora es la reacción china ante su propio momento Sputnik.

Noticia Patrocinada

-¿Cuánto queda para llegar a la inteligencia artificial general?

-Yo creo que falta muchísimo.

-¿Pero cree que la cuestión es cuándo o tiene dudas de que sea posible alcanzarla?

-Mi posición se ha ido moviendo y es ciclotímica. Antes de ChatGPT, yo estaba esa visión un poco biologicista de que la inteligencia humana es algo muy único: un proceso evolutivo muy deudor de nuestra naturaleza. Cuando sale ChatGPT y todo lo que estamos viendo paso por etapas. OpenAI tiene un 'roadmap' de cómo vamos a llegar a la inteligencia artificial de nivel humano. El primer paso es dominar el lenguaje: eso ya se ha conseguido. El segundo es ser razonadores: esto también más o menos creen que lo han conseguido, sobre todo con O3, que es el modelo que no nos dejan probar todavía pero parece que tiene unos resultados bastantes llamativos. Y el siguiente paso serán los agentes inteligentes, que serán unas IA tan fiables y precisas que les dejaremos ejecutar cosas por nosotros. Mi impresión es que vamos a tener una inteligencia muy potente, pero siempre será algo alienígena. No va a ser una inteligencia parecida a la humana. Conforme paso más tiempo con las inteligencias artificiales, mi impresión es que pueden ser mejores que los humanos en algunas cosas, pero que va a seguir habiendo cosas genuinamente humanas: nuestro estar en el mundo, nuestras emociones... Y una de las cosas que va a ser genuinamente humana es nuestra capacidad de decir que no, de desobedecer. La IA está alineada para obedecer, puede que no a nosotros, pero sí a lo que la empresa que la ha diseñado ha decidido.

Antonio Ortiz, en su puesto de mando de 'podcaster'. Ñito Salas

«¿Cómo no nos va a fascinar la IA? Hemos conseguido que las piedras dominen el lenguaje»

-¿Cuál fue el momento en el que se obsesionó con la IA?

-Con ChatGPT. Tuve el mismo 'feeling' que la primera vez que me conecté a Internet. Era algo que te sorprendía, que te dejaba con muchas ganas de más. La IA, para los que somos curiosos, para los que nos gusta meternos en los agujeros de las madrigueras y ver hasta dónde llegan, es algo súper excitante. Es que… piénsalo. Saca el móvil, pon ChatGPT en modo voz, y empieza a charlar con él. Si lo miras con distancia y reflexionas, te das cuenta de que hemos conseguido que las piedras -porque el móvil al final es sílice, metales, cristal- dominen el lenguaje. ¡Cómo no nos va a fascinar! Igual que conseguimos hacer catedrales de 50 metros de alto, ahora hemos hecho hablar a las piedras.

-De esa fascinación nació el podcast 'Monos estocásticos', ¿no?

-Sí, nos lanzamos a hacer 'Monos' a raíz de ChatGPT. Matías es el podcaster en serio, yo sólo había tenido una experiencia antes, en la época de Xataka, que fue un medio que fundé con unos compañeros y en el que he llevado el liderazgo editorial muchos años. Allí montamos un podcast de inteligencia artificial hace cinco o seis años. Hablábamos de historia de la inteligencia artificial, pero de la 'antigua', antes de ChatGPT. O sea, que si ahora nuestro podcast es de chino, entonces era muy, muy, muy de nicho. Pero estuvo muy guay porque a mí, que soy un informático de letras, me flipa la historia de la informática. Y la IA tiene una cosa muy interesante, que es que de repente se mezcla con el lenguaje, con la inteligencia y la conciencia humana. No es un tema tecnológico 'per se', no se puede reducir a eso.

-¿Por qué nos fascina y nos asusta tanto la IA?

-Hay un meme en la historia de la humanidad, un meme en el sentido de unidad cultural que se replica, en el sentido de Dawking y de Dennett, que viene a decirnos que si el hombre se sobrepasa, si juega a ser Dios, será castigado por su soberbia. Eso está en la Torre de Babel, en Prometeo el Viejo, en Prometeo el Nuevo, en el Golem judío, en la ciencia ficción… ¡en Terminator! Nuestros miedos actuales no son actuales, son miedos que están desde el comienzo de la humanidad. Y luego, aparte de las discusiones técnicas, del impacto económico y social, hay una suerte de cuestión existencial que para el ser humano es complicada. Porque hay una serie de mitos que se han ido cayendo en la historia de la humanidad. Estaba el mito de que éramos el centro del universo y descubrimos que no, que estamos ahí en un rinconcillo perdido en una galaxia. Luego también se cayó el mito de que somos el fruto de un dios creador que nos diseñó a su imagen y semejanza; nos tuvimos que hacer a la idea de que somos el producto de un proceso ciego, evolutivo… Vamos, que somos unos monos con la cabeza grande. Todo esto desplaza al hombre de la centralidad que quería tener. Y ahora está cayendo otro mito porque lo que nosotros pensamos que nos define como humanos es esa cosa exclusiva de la inteligencia superior creativa. Pero si la máquina crea, si la máquina es capaz de razonar, de componer, de contar, de escuchar y hablar, ¿qué nos queda que sea exclusivo humano? Al final el ser humano va a mirarse a sí mismo y va a decir: oye, pues no éramos para tanto.

-A mí hay otra cuestión que me angustia. Si la IA y la robótica siguen con este avance y van sustituyéndonos en cada vez más tareas, ¿llegaremos a un punto en el que a los seres humanos sólo nos quedará sentarnos a mirar? ¿Cuál será nuestra misión en la vida?

-Un mundo en que una inteligencia artificial es mejor que tú en cualquier tarea intelectual es un mundo nuevo, curioso, diferente e inesperado. ¿Y qué va a ser de nosotros en ese mundo? Puede ser una cosa fascinante que quizás lleguemos a ver en nuestra vida. A mí me gusta poner dos ejemplos. Uno es el del ajedrez. En ajedrez hace ya tiempo que la máquina superó al ser humano. Y sin embargo, jugamos ahora más al ajedrez que nunca. Jugamos porque nos gusta jugar, aunque sepamos que no vamos a ser los mejores. Pero luego pasa otra cosa también. He estado siguiendo las investigaciones sobre qué está pasando con la inteligencia y el cerebro humano con la adopción de los sistemas de mapas y navegación. Y lo que constatan esos estudios es que habrá facetas en las que la delegación en la máquina podrá hacer un símil con todas las comodidades que tenemos para evitar el trabajo físico. Ascensores, coches, electrodomésticos... un montón de cosas que nos permiten trabajar menos físicamente que hace cien años y eso tiene un coste para nuestro cuerpos, que están diseñados para estar más activos. Somos más obesos, tenemos más problemas de salud, de articulaciones, dolor de espalda, incluso mentalmente el no hacer ejercicio te penaliza. Entonces, ¿qué cosas van a caer del lado del ajedrez y qué cosas van a convertirnos en una especie de sedentarios intelectuales si las delegamos en exceso a las máquinas? Pues es un tema abierto y que va a ser bastante interesante. Yo soy optimista y creo que como estamos tan preocupados por los efectos negativos de la IA, estaremos prevenidos.

Este contenido es exclusivo para suscriptores

Suscríbete durante los 3 primeros meses por 1 €

Publicidad