La Inteligencia Artificial Devuelve la Voz a una Víctima en un Juicio Histórico
El caso de Christopher Pelkey y el debate ético sobre el uso de IA en la justicia
Justicia y Duelo: Cuando la IA Habla por los que Ya No Están
Christopher
Pelkey murió en 2021 durante un tiroteo en una carretera de Arizona
(EEUU), víctima de un ataque de furia de Gabriel Horcasitas. Tres años
después, su voz resonó de nuevo en un tribunal gracias a un avatar
creado con inteligencia artificial. Su familia utilizó audios, videos y
fotografías para reconstruir su imagen y personalidad digital,
permitiendo que el "Chris virtual" leyera una declaración de impacto
durante la audiencia de sentencia de su asesino.
El resultado fue sobrecogedor: el avatar, vestido con una gorra gris y un tono sereno, expresó palabras de perdón y reflexión. «Es una pena que nos hayamos encontrado en esas circunstancias», dijo dirigiéndose a Horcasitas, mientras recordaba su fe en un Dios misericordioso. El juez Todd Lang, visiblemente conmovido, impuso una condena de 10 años y medio por homicidio involuntario y destacó: «Escuché el perdón en sus palabras. Esta tecnología capturó su esencia humana».
¿Un Avance o un Riesgo Ético?
Aunque
el uso de IA fue aceptado en este caso (al no haber jurado y tratarse
solo de una audiencia), expertos como Derek Leben, filósofo
especializado en ética tecnológica, alertan sobre los riesgos: ¿Podemos asegurar que la IA refleja los verdaderos deseos de la víctima?. Por otro lado, Paul Grimm, exjuez federal, defiende su utilidad: «Es una herramienta imparable; ya se usa en Arizona para explicar decisiones judiciales».
Para la familia Pelkey, sin embargo, la tecnología fue un puente hacia el cierre emocional. Stacey Wales, hermana de Chris, lo resume: «La IA es como un martillo: puede destruir o construir. Nosotros elegimos construir».
Conclusión: Entre el Asombro y la Precaución
El
caso de Christopher Pelkey marca un hito en la intersección entre
tecnología, justicia y duelo. Mientras algunos celebran su potencial
para humanizar procesos fríos o dar voz a quienes la perdieron, otros
exigen regulaciones claras para evitar manipulaciones o
tergiversaciones.
Lo que queda claro es que la IA ya no es solo una herramienta para innovar: también puede ser un instrumento de sanación. Como bien señaló Stacey, «Chris merecía tener la última palabra. Y la tuvo». Sin embargo, el debate ético está lejos de cerrarse: ¿dónde trazamos el límite entre el homenaje digital y la alteración de la memoria? La respuesta, por ahora, sigue escribiéndose.

