¿Vigilancia predictiva o violación de la privacidad? La IA que escucha las llamadas de las prisiones
Imagina que cada llamada que haces a un ser querido, cada mensaje de voz o correo electrónico, es analizado no solo por un sistema de seguridad, sino por una inteligencia artificial entrenada para encontrar delitos antes de que ocurran. Ahora imagina que estás en prisión y no tienes otra opción que comunicarte a través de estos canales. Esta no es una película de ciencia ficción, es el nuevo proyecto piloto de Securus Technologies en Estados Unidos.
La iniciativa, que ya está siendo probada en tiempo real dentro de algunas cárceles, ha encendido las alarmas de defensores de derechos civiles y ONGs. Utilizar el vasto volumen de comunicaciones de personas encarceladas para alimentar un modelo de IA plantea un complejo dilema ético: ¿dónde está el límite entre la seguridad y los derechos fundamentales?
El oído electrónico de la prisión
Securus Technologies, una empresa de telecomunicaciones que presta servicios en centros penitenciarios de EE. UU., ha desarrollado un modelo de inteligencia artificial capaz de revisar millones de llamadas, videollamadas, mensajes de texto y correos electrónicos de internos. El objetivo declarado es ambicioso: anticipar y prevenir actividades delictivas que puedan planificarse desde dentro de las prisiones.
Para lograrlo, la IA fue entrenada con un volumen masivo de datos históricos. Uno de sus modelos principales se alimentó de nada menos que siete años de grabaciones telefónicas de internos en el estado de Texas. La compañía va más allá y está creando sistemas "a medida" para cada estado o condado, buscando que la inteligencia artificial aprenda los patrones, el lenguaje y la jerga local específica de las actividades de pandillas o el crimen organizado en cada región.
Según la empresa, el sistema funciona como un filtro de alerta temprana. Los investigadores penitenciarios pueden activar la herramienta para vigilar conversaciones aleatorias o centrarse en individuos ya bajo sospecha. Cuando la IA encuentra patrones o fragmentos de conversación que considera sospechosos, los "marca" y los deriva a un agente humano para una primera evaluación. Si este agente confirma la sospecha, el fragmento se envía a investigadores oficiales, quienes deciden si se debe actuar.
Un precio muy alto por la seguridad
Securus defiende su tecnología argumentando que es una herramienta necesaria ante la falta de personal en las prisiones y que su objetivo es hacer el monitoreo más eficiente, no espiar sin motivo. Afirman que su sistema se limita a buscar patrones generales de conducta delictiva, y no a vigilar individuos de forma específica. Insisten en que siguen estrictamente las políticas de monitoreo que cada prisión define.
Sin embargo, las críticas no se han hecho esperar y se centran en tres puntos clave:
La falta de transparencia y el historial de la empresa: Organizaciones de derechos civiles recuerdan que Securus no es nueva en esto de las controversias. En el pasado, la empresa ya vulneró la privacidad de cientos de personas al grabar miles de llamadas confidenciales entre internos y sus abogados, un secreto profesional fundamental en cualquier estado de derecho. Este antecedente hace que muchos duden de sus promesas de privacidad y uso limitado de los datos.
El consentimiento forzado: Los presos son informados de que sus llamadas son grabadas, un aviso estándar. Pero el salto cualitativo es enorme: ahora se les está utilizando, sin un consentimiento explícito e informado, para entrenar un sistema de inteligencia artificial. Sus voces, sus conversaciones y su lenguaje pasan a ser materia prima para una tecnología que luego se usará para vigilarlos a ellos y a otros. Para los defensores de los derechos de los presos, esto es especialmente grave, ya que las personas encarceladas no tienen otra opción para comunicarse con el exterior.
Los costos delatan al "acusado": La ironía final la pone el modelo de negocio. En casi todos los estados de EE. UU., son los internos y sus familias quienes pagan por estas llamadas, a menudo con tarifas muy elevadas. Como señalan los críticos, esto significa que las personas encarceladas están pagando para que su propia data sea extraída y utilizada para entrenar una herramienta que luego se vuelve contra ellas. La empresa, por su parte, argumenta que necesita equilibrar los costos para ofrecer precios razonables mientras financia herramientas de seguridad que considera esenciales.
Esta dinámica ha llegado incluso a la Comisión Federal de Comunicaciones (FCC), donde una comisionada votó en contra de ciertas prácticas, argumentando que el costo de estas tecnologías de vigilancia debe ser asumido por las autoridades penitenciarias y no recaer sobre las familias de los internos, que ya soportan una carga económica y emocional descomunal.
Conclusión: Una línea roja en la era de la IA predictiva
El caso de Securus es un claro ejemplo de cómo la llegada de la inteligencia artificial está forzando a la sociedad a redefinir sus límites éticos. Mientras la empresa presenta su tecnología como un avance necesario para la seguridad en un entorno peligroso, las voces críticas ven un preocupante paso hacia un estado de vigilancia total, donde la presunción de inocencia se diluye y la privacidad de un colectivo especialmente vulnerable es moneda de cambio.
La falta de ejemplos concretos de delitos frustrados por esta nueva IA, sumada al oscuro historial de la compañía y al cuestionable modelo de negocio que hace pagar a los vigilados, siembran serias dudas sobre sus verdaderas intenciones. Este debate no es solo tecnológico, sino profundamente humano: nos obliga a preguntarnos qué tipo de sociedad queremos construir y si, en nombre de la seguridad, estamos dispuestos a sacrificar los derechos de los más desfavorecidos.

