El caso de DeepSeek en China
Hace unos días me invitaron al programa de La Cuatro para hablar sobre un tema que empieza a ocupar titulares en todo el mundo: la irrupción de DeepSeek en China. Apenas medio año después de su lanzamiento, este sistema se ha convertido en una herramienta habitual en juzgados, hospitales y cuerpos policiales del país asiático. El hecho de que se use en procesos judiciales y de reconocimiento facial ha generado un enorme debate internacional.
No hablamos de especulación, sino de hechos concretos. En Shenzhen, la policía ya utiliza DeepSeek para analizar millones de vídeos de vigilancia y localizar a fugitivos o desaparecidos. Gracias a esa capacidad, este verano atraparon a una mujer que llevaba casi quince años en busca y captura por una trama de bebés robados. En Pekín, los tribunales han empezado a usar el modelo R1 para redactar sentencias en cuestión de segundos. En Fuzhou, hospitales lo emplean para explicar tratamientos de forma clara a los pacientes. En Kunshan, el tráfico se gestiona con algoritmos predictivos, y en Nanchang los tribunales han llegado a resolver incluso disputas de divorcio con el apoyo de la IA. El modelo se ha extendido a tal velocidad que ya forma parte de líneas de atención ciudadana 24h, como ocurre en Meizhou.

En Shenzhen, la policía ya utiliza DeepSeek para analizar millones de vídeos de vigilancia y localizar a fugitivos o desaparecidos
Por qué Europa no seguirá ese camino
Mi posición fue clara: lo que ocurre en China no es extrapolable a Europa. Allí el despliegue de la inteligencia artificial responde a un modelo de gobernanza muy distinto, donde las decisiones políticas y sociales están alineadas con una estructura autoritaria. En Europa, en cambio, seguimos siendo el último bastión en la defensa de los derechos fundamentales. Y eso significa que nunca podremos aceptar que jueces, médicos o policías se conviertan en simples validadores de lo que dicta un algoritmo.
La IA solo puede ser una herramienta
Defiendo que la inteligencia artificial debe ser exactamente lo que es: una herramienta de apoyo. Puede aportar datos masivos, proyectar escenarios y ayudar a tomar decisiones más rápidas. Pero nunca debe ser la que decida. Todo lo que afecte a derechos fundamentales debe estar regulado, auditado y, sobre todo, en manos de seres humanos. Delegar en una máquina el destino de una persona sería despojar a la justicia y a la medicina de lo más esencial: la compasión, la sensibilidad y el juicio humano.
Los riesgos de sesgo y opacidad
Uno de los grandes problemas que señalo siempre es el de los sesgos algorítmicos. Si una IA se entrena con datos que contienen prejuicios, acabará reproduciendo y amplificando esas desigualdades. Y además está el riesgo de la opacidad: si un ciudadano no puede saber qué parte de una sentencia fue elaborada por un humano y qué parte por un algoritmo, la confianza en el Estado de derecho se erosiona. El juez dejaría de ser un intérprete de la ley para convertirse en un validador de propuestas automáticas. Y eso reduce la independencia judicial.
¿Puede una IA volverse contra el sistema?
Algunos me preguntaron si una inteligencia artificial podría llegar a rebelarse contra el régimen que la ha entrenado. Mi respuesta fue sencilla: no. Estos sistemas no son autónomos, como a veces se fantasea desde la ciencia ficción o los titulares de la infoxicación digital. Son arquitecturas muy estrechas, totalmente dependientes de sus datos de entrenamiento. En el caso de China, además, están milimétricamente controlados. La idea de una “IA justiciera” que se vuelva contra el Partido Comunista es más un relato literario que una posibilidad real.
El ejemplo del primer ministro sueco
También salió a colación la polémica reciente en Europa: el primer ministro de Suecia reconoció que consulta a la inteligencia artificial en su día a día para algunas decisiones de gobierno. Esto generó indignación en parte de la ciudadanía. Yo lo veo de otra manera. Usar la IA como segunda opinión me parece razonable: ayuda a analizar enormes volúmenes de datos, plantear escenarios de riesgo y proponer alternativas. Pero eso no significa gobernar con algoritmos. Gobernar es un acto político, basado en valores, historia y legitimidad democrática. Ninguna IA puede asumir esa responsabilidad.
Tecnología al servicio de las personas
Lo que me preocupa de este debate es que se confunda la capacidad de cálculo con la capacidad de gobernar. La política no es una ecuación, es un ejercicio de ética, cultura y sensibilidad social. La tecnología puede acompañarnos, pero no liderarnos. Y ahí es donde quiero dejar mi mensaje más claro: en Europa debemos garantizar que la inteligencia artificial esté siempre al servicio de las personas, ampliando nuestras capacidades, pero sin reemplazar nunca nuestra responsabilidad como sociedad.
Como siempre digo y me repito, el desafío no está en la potencia de los algoritmos, sino en la dirección que decidimos darles. China ha optado por un modelo de integración total, donde la inteligencia artificial se convierte en brazo extendido del Estado. Europa, en cambio, tiene la responsabilidad de demostrar que es posible un camino distinto: uno donde la tecnología se subordine a los valores humanos, a la ética y a la democracia. No se trata de negar la inteligencia artificial, sino de recordarnos que ninguna máquina, por sofisticada que sea, puede reemplazar la conciencia y la responsabilidad que nos definen como sociedad.
Artículos de interés que hacen referencia en al tema
-
El País / Cinco Días: “La burbuja de la IA da aliento a China” (2025).
-
Financial Times: “DeepSeek’s next AI model delayed by attempt to use Chinese chips” (2025).







