A las seis en punto, Laura G. de Rivera llegó con paso tranquilo y esa clase de mirada que observa antes de hablar. Se sentó frente a mí, envolvió la taza con las manos, la dejó en el suelo. Sonrió y dijo: —Bueno, disparen.
Desde el primer instante, uno entiende que Laura no solo dialoga con la realidad: la desarma, la interroga, la escucha respirar. Licenciada en Ciencias de la Información por la Complutense de Madrid, máster en la Escuela de Letras, periodista científica desde 1994, va armando puzles con el mundo, buscando la pieza que falta y contándola con precisión. Habla con energía, pero sin estridencias; se entusiasma, se ríe, se inclina hacia adelante cuando algo le interesa. Es imposible ignorar su presencia.
En ella hay algo coherente: lo que escribe y lo que es parecen hechos del mismo material. Se la nota libre, dueña de su tiempo y de sus ideas. Se quiere, se piensa, se detiene. No responde por inercia, responde porque ha pensado cada palabra, como si escribir —o hablar— fuera, todavía, una forma de resistencia. Frente a Laura, la entrevista se volvió conversación, y la conversación, una fuerte lección sobre cómo mirar el mundo sin dejar de hacerse preguntas.
Cuando tú no decides, otros deciden por ti
Para Laura G. de Rivera, el problema no es la tecnología, sino la renuncia. “Cuando tú no decides, otros deciden por ti”, dice. Lo repite con calma, como si en esa frase se concentrara una advertencia. Cada vez que dejamos que el GPS elija el camino, o que una aplicación escriba por nosotros, estamos —según ella— entregando un poco de libertad a una máquina. “En realidad estás delegando tu libertad en un programa de ordenador.”
Pero su reflexión va más allá del objeto tecnológico. No se trata solo de algoritmos, sino de quién los programa. “No es que lo esté dando a un programa de ordenador, que eso es la inteligencia artificial; son las personas que hay detrás.” Detrás de la cuerda, dice, hay alguien que tira, alguien que decide. En su libro cita a Carlos Castaneda: “Siempre mira al hombre con quien estás jugando, él tira y afloja con la cuerda. No tires simplemente de la cuerda, levanta la vista a sus ojos.”

Para ella, esa cuerda es la inteligencia artificial: los usuarios en un extremo, y en el otro las empresas que la manejan. “Cinco empresas dominan el mercado mundial: Amazon, Meta, Microsoft, Google y Nvidia.” La pregunta, insiste, no es qué puede hacer la inteligencia artificial, sino para qué y para quién lo hace.
El precio de lo gratuito
La conversación avanza hacia algo más cotidiano: los datos, las cookies, las redes sociales. Laura sonríe cuando recuerda que aceptó abrir una cuenta de Instagram solo para promocionar su libro. “Me resistía, pero me aconsejaron hacerlo. Y cuando lees lo que aceptas, alucinas.”
Habla del engaño, de lo gratuito. “Te dicen ‘sigue leyendo gratis y acepta las cookies’, pero no es verdad. Tú estás pagando con tus datos, con tus fotos, con tu intimidad.” En Europa, recuerda, la nueva regulación permite pagar por usar Instagram sin ceder datos personales. “Eso te da una idea de cuánto valen tus datos: valen al menos lo que cuesta la suscripción.”
«Que nos dejen usar sus plataformas. No es gratis, les estás pagando y muy bien pagado.”
Lo que a Laura le inquieta no es solo la cesión de información, sino la inconsciencia. “La gente no tiene ni información. Suben fotos sin saber que están dando el derecho a las redes sociales de hacer lo que quieran con ellas.” La desinformación —dice— es la gran vulnerabilidad contemporánea. “El antídoto es saberlo. Si sabes, puedes decidir.”
El espejismo del amor digital
Laura cree que las redes explotan una emoción común a todos: la necesidad de ser queridos. “Todo el mundo quiere que le quieran”, dice. Los ‘likes’ no son aprobación, sino espejos de esa carencia. “Cuando tú estás mirando si te han puesto ‘me gusta’ o no, en realidad lo que estás es intentando satisfacer esa necesidad de sentirte aceptado.”

Pero ese afecto virtual, afirma, no calma nada. “No me voy a la cama y digo: ay, qué bien, muchos likes. Es al revés: me voy a la cama pensando por qué no me puso like tal persona.” En esa ansiedad, dice, se esconde la dependencia emocional que las plataformas alimentan.
Con los jóvenes, la situación es más grave. “Hay chicos que se han quitado la vida por consejos de una IA o por lo que ven en redes”, recuerda. En todos los casos, la culpa recae sobre el usuario. “Nunca sobre la máquina, ni sobre quien la programó.”
Lo peor ya está pasando
Cuando le preguntan por el peor escenario posible, Laura no imagina un futuro apocalíptico. “El peor escenario ya está pasando”, responde. No habla de robots ni de gobiernos automatizados, sino de infancia. “Lo peor, con muchísima diferencia, son los menores. Niños adictos a las pantallas, que no están jugando, ni estudiando, ni desarrollando su capacidad de reflexión.”
“No puedes decirle a un niño ‘solo una hora de videojuego’. Es como decirle: te puedes meter una raya, pero solo el viernes.”
Su tono cambia al mencionarlo. “Los videojuegos están diseñados con inteligencia artificial para mantener al niño ahí, igual que un casino mantiene a un jugador. Es el mismo mecanismo en el cerebro.” Los niños —dice— no tienen madurez para poner límites, y los adultos, en el fondo, tampoco. “A veces me pasa a mí. Entro en Instagram un momento y cuando miro el reloj han pasado dos horas.”
La adicción digital, explica, es una enfermedad reconocida. “Está clasificada como un trastorno mental.” Y aunque la comparación con la cocaína parezca excesiva, la defiende. “No puedes decirle a un niño ‘solo una hora de videojuego’. Es como decirle: te puedes meter una raya, pero solo el viernes.”
La inteligencia que no piensa
En España, Laura explica, la ley permite a las empresas usar obras literarias y artísticas para entrenar sus modelos si se justifica con fines de investigación. “Es el llamado derecho de pastiche”, dice. Sin embargo, considera que es una forma de explotación. “Les roba sus obras a los artistas, sus datos a los usuarios.”
“La inteligencia artificial no es inteligente. Es pura estadística.”
El hambre de datos —como lo llama en su libro— es infinita. “Para parecer inteligente, necesita comer enormes cantidades de información.” Con esos datos, la IA no razona: calcula probabilidades. “Dice: hay un 90 % de posibilidad de que esté embarazada porque buscó carritos de bebé.” Lo que parece pensamiento, en realidad, es estadística.
Los algoritmos que deciden vidas
El problema, dice, no es solo digital. En España, algunos tribunales usan algoritmos para decidir si un preso merece la libertad condicional. “Tienen un índice alto de error, pero los funcionarios solo contradicen al algoritmo el tres por ciento de las veces.” La confianza ciega en la máquina, señala, es un nuevo tipo de obediencia.

“Si lo dice el algoritmo, será verdad. Ese es el peligro. Estamos poniendo en manos de un programa la vida humana.”
Por eso cree urgente abrir un debate público. “La inteligencia artificial llegó sin que nadie nos preguntara. Las decisiones se tomaron sin participación social.” Hoy, incluso las escuelas usan plataformas de Google o Microsoft. “Con la pandemia se metieron en todos los colegios. Tienen los datos de los niños, sus notas, su comportamiento, todo.”
La infancia vigilada
Para Laura, el control empieza temprano. “Esos datos se los quedan las compañías. Saben si el niño es puntual, si estudia bien, si no.” Le preocupa que, cuando crezcan, los algoritmos sepan más de ellos que ellos mismos. “La huella digital que estamos dejando a los menores es enorme.”
Habla también de los riesgos de la biometría. “Hay algoritmos que, con una sola foto, pueden decir hasta cuánto gana una persona.” Lo dice recordando casos de deepfakes que afectaron a menores en España. “La culpa siempre es del usuario. Nunca del sistema.”
“Los algoritmos sabrán más de los niños que ellos mismos.”
Pensar como acto de resistencia
En medio del panorama, Laura conserva un optimismo casi obstinado. “Tengo mucha confianza en el ser humano. Por naturaleza somos buenos, inteligentes y no nos gusta que nos engañen.” Cree que el cambio empieza en lo individual: en recuperar el pensamiento.
“Pensar es un lujo, pero al mismo tiempo es gratis.”
Para ella, el problema no es técnico sino humano. “Nos están haciendo creer que somos pequeños y que debemos aprender rápido para no quedarnos atrás. Pero lo que hay que aprender es a querernos, a desarrollar nuestra creatividad, a encontrar un propósito.”
Habla del apagón que vivió en España. “Fue maravilloso. Sin luz, sin internet, la gente se ayudaba, se hablaba en la calle, los coches se detenían y se daban paso.” Cree que, en el fondo, los humanos tienden al bien. “Cuando pasa una tragedia, la gente sale a ayudar. La naturaleza humana es humana.”
Nuestra revolución es la conciencia

Al final, su respuesta a la pregunta sobre qué puede hacer cada persona no es grandilocuente. “Nuestra revolución es ser conscientes.” Tener información, saber cómo funciona el modelo, reconocer el precio del tiempo y la privacidad. “¿Qué vale mi libertad? ¿Cuánto vale mi intimidad?”
Laura propone algo sencillo: decidir con calma. No se trata, insiste, de rechazar la tecnología, sino de usarla con conciencia. “Los humanos no estamos aquí para ser robots. Estamos aquí para pensar, para crear, para amar.”
“Nos hacen creer que no podemos, como al elefante del circo. Pero sí podemos. Solo hay que volver a intentarlo.”
Entrevista por Germain Soto

