twitter instagram facebook
Versión imprimir
18-02-2026

Tecnología y derecho

 

No era una leyenda urbana: Google reconoce que los móviles nos escuchan

 

La captación sistemática de nuestras voces es una vulneración de derechos fundamentales que afecta a todos, pero también de una manera especial a los actores

 

Marco Antonio Mariscal

Abogado y Doctor en Derecho. Profesor de Derecho Civil en la UAH.
Director de Transformación Tecnológica en AISGE

 

 

¿Cuántas veces hemos dicho u oído aquello de “el otro día estaba hablando de un tema y, al rato, en el móvil me apareció publicidad relacionada”? ¿Usted también ha pronunciado alguna vez la frase “Yo creo que nos escuchan”? Pues resulta que esto ha dejado de ser un mito para convertirse en una realidad tan cierta como que Google, propietaria del sistema operativo Android, ha aceptado un acuerdo preliminar de 68 millones de dólares para poner fin a una demanda colectiva (Class action lawsuit) denominada Google Assistant Privacy litigation, en el que se la acusaba, precisamente, de capturar nuestras voces.

 

Más allá de la evidente vulneración de derechos fundamentales, para el colectivo de los actores este asunto encierra una consecuencia aún más profunda y preocupante. La voz es una de sus principales herramientas de trabajo. Y este litigio evidencia cómo las grandes tecnológicas han estado escuchándonos de forma sistemática e ilícita, apropiándose no solo de la voz, sino de un activo profesional esencial. Es más, la captura masiva de voces humanas ha servido para entrenar sistemas capaces hoy de clonarlas, reproducirlas y, en la práctica, amenazar con sustituir el trabajo de quienes viven precisamente de ellas.

 

Google sostiene que nunca existió una intención de escucharnos y que lo ocurrido es solo consecuencia de un mero fallo técnico. Según la compañía, la aplicación Google Assistant (su asistente de voz) solo debió activarse de manera manual por el usuario, o cuando este pronunciaba los comandos “Ok Google” o “Hey Google”. Pero por un error se activaba de manera accidental con otras palabras, lo que se denomina false accepts. Esto dio lugar a la realización de grabaciones sistemáticas de audio de nuestras vidas. Desde luego, esta explicación no parece del todo convincente, o al menos resulta insuficiente desde una perspectiva jurídica, ya que es cierto que se han estado escuchando nuestras conversaciones privadas sin nuestro conocimiento ni consentimiento.

 

Además, según la demanda, estos audios fueron utilizados para entrenar los algoritmos de Google y elaborar publicidad dirigida. Es decir, nuestros datos sirvieron para explotar comercialmente nuestro ámbito más privado y confidencial. Si cualquiera de nosotros puede sentirse invadido, imaginemos qué significa esto para un actor, que ve cómo no solo se han utilizado sus conversaciones privadas, sino también sus ensayos en casa, lecturas de guiones o pruebas de voz. Todo ese material capturado sin su consentimiento habrá servido luego para entrenar sistemas de inteligencia artificial capaces de clonar su voz.

 

El pleito no versa únicamente sobre un posible fallo técnico, sino sobre el hecho de que las condiciones de uso y políticas de privacidad entre los usuarios y las grandes tecnológicas se conviertan en papel mojado cuando se trata de ganar dinero, aunque sea comercializando con nuestra intimidad y nuestros datos. Pero para los profesionales del sector audiovisual esta violación de derechos va aún más allá, pues supone la apropiación ilícita de su principal activo profesional.

 

Quizá la paradoja más evidente es que, mientras en Europa se debate sobre la implementación de licencias colectivas para el uso de contenidos protegidos en el entrenamiento de inteligencia artificial –las llamadas licencias para el input–, casos como el de Google Assistant demuestran que el daño ya está hecho. Las grandes tecnológicas llevan años capturando, procesando y explotando comercialmente material sin autorización. Para cuando se apruebe cualquier marco regulatorio, sus modelos de IA ya estarán entrenados con millones de horas de audio obtenidas de forma ilícita. Y no es descartable que pronto veamos que lo mismo ocurra con vídeo e imágenes bajo la excusa de “se activó por un fallo en la configuración de la cámara”.

 

Mientras en Europa seguimos discutiendo el correcto marco normativo, las tecnológicas –que prefieren pedir perdón antes que pedir permiso– avanzan en el desarrollo de nuevas tecnologías, apropiándose de todo lo que pueden. Y a sabiendas de que, en el peor de los casos, solo afrontarán multas o acuerdos económicos que representan una mínima parte de los beneficios obtenidos.

 

Los 68 millones de dólares que Google pagará se destinarán a compensar a los consumidores afectados por las escuchas. Sin embargo, y por desgracia, no se entregará nada a los profesionales que han sufrido la expropiación de su voz para convertirla en una herramienta de competencia desleal.

 

No cabe duda de que los usuarios afectados deben recibir una compensación económica por la violación de su privacidad, pero un actor cuya voz ha sido capturada y utilizada para entrenar un sistema de clonación vocal afronta un daño difícilmente cuantificable. La tecnología entrenada con su material puede replicar su trabajo hasta el punto de competir con él en el mercado. ¿Cómo se repara la pérdida de oportunidades laborales causada por una IA entrenada de manera ilícita?

 

A nadie se le escapa que, aunque Google justifique el acuerdo como una forma de evitar el aumento de los costes del litigio y la mala reputación, el caso confirma que los teléfonos móviles escuchan más de lo que debieran. Y aunque la compañía haya reforzado sus controles internos y las herramientas de gestión de grabaciones, el modelo de negocio basado en datos personales y publicidad dirigida sigue intacto.

 

Para los usuarios, la lección es que los avisos de privacidad y las promesas de “solo te escuchamos cuando tú quieres” son una falacia. Pero para los actores, este caso plantea problemas que van mucho más allá de la privacidad. La respuesta pasa por exigir una transparencia absoluta sobre qué datos se capturan y cómo se utilizan, pero también por explorar acciones colectivas similares a la que ha llevado a Google a pagar 68 millones de dólares. Necesitamos iniciativas que protejan de manera urgente los derechos artísticos cuando las tecnológicas capturan y explotan comercialmente su voz sin autorización ni compensación.

 

Queda demostrado que no solo se trata de encontrar una regulación que permita compensar los usos pasados, sino de establecer mecanismos efectivos que impidan que nuestras voces sean devoradas por sistemas entrenados ilegalmente. Porque, al final, aquella cantinela de “los móviles nos escuchaban” resulta que era la pura verdad.

Versión imprimir