El crecimiento exponencial de las tecnologías de la información y la comunicación provoca que la libertad individual y el derecho a la privacidad se vean afectados negativamente. Ahora mismo estoy escribiendo este capítulo en el ordenador de uno mis asesores técnicos y empezamos a hacer bromas sobre si en este preciso momento van a aparecer unos helicópteros de alguna de las agencias que estamos levemente investigando a detenernos. Uno de los informáticos nos deja de piedra cuando nos dice: “si queréis que no lean lo que estáis escribiendo, mejor hacedlo con lápiz y papel”. Después de la impresión inicial y sin dejarnos llevar por la paranoia, vamos a hacer un breve resumen de cómo funcionan los sistemas de seguimiento de Internet por parte de los servicios secretos americanos, en especial el FBI, con la intención de hacernos una idea del control que ejercen sobre la información.

Para empezar, existen diferentes versiones sobre el origen de Internet, pero aquí voy a exponer sólo la aceptada mayoritariamente. A finales de los años 50 el Departamento de Defensa de los Estados Unidos crea una sección especializada en guerra electrónica y comunicaciones denominada ARPA, Agencia de Proyectos de Investigación Avanzada, cuya misión consistía en realizar sesudos estudios sobre cómo mantener la supervivencia de los sistemas de comunicaciones frente a un ataque nuclear. La guerra fría comenzaba a calentarse y el temor a un enfrentamiento global provocaba que los presupuestos para estas partidas fueran ilimitados y por supuesto ultrasecretos. Durante los años 60, ARPA sigue creciendo y se conectan todos sus ordenadores para crear Arpanet, es decir, una red de servidores deslocalizados que aprovechan el recién creado protocolo TCP/IP para permanecer en contacto sin interrupción aunque alguno sea destruido por el enemigo. El sistema fue evolucionando y gracias al apoyo y participación de numerosas universidades, centros de investigación y empresas privadas se fue convirtiendo en lo que ahora llamamos Internet. Este origen militar nos da pistas de cómo está cimentada la Red universal y de quién la controla realmente.

Por otro lado, no tenemos que perder de vista el miedo al uso de la información como ventaja posicional del enemigo que inunda los departamentos de defensa americanos, lo que conlleva la falta de reparos a la hora de gastarse miles de millones de dólares en desarrollar y mantener sistemas de vigilancia universales. Cada agencia gubernamental de inteligencia o servicio secreto americano (y hay más de veinte) tiene su propio y controvertido sistema para detectar “malvados” en la Red. Vamos a revisar de una manera simplificada las principales agencias:

NSA: Agencia de Seguridad Nacional, la más grande de todas y tan secreta que sólo es conocida por las películas. Se encarga de analizar la información transmitida por cualquier medio de comunicación, disponiendo del software más potente de todos, el Echelon, capaz de monitorear cualquier ordenador del mundo (y estoy seguro de que en cuanto le mande esto a la editorial para revisión, un joven gafapasta en algún lugar de su central de Fort Meade, Maryland, recibirá una copia del mensaje al detectar palabras “monitorizadas”).

CIA: Agencia Central de Inteligencia, encargada del espionaje en el exterior. Cuenta con multitud de sistemas y tecnología para hacer su “trabajo”. Destacaremos que hace pocos meses compraron la empresa Visible Technologies, compañía desarrolladora de una poderosa herramienta con capacidad para rastrear lo que sucede en medio millón de webs al día y de recopilar millones de citas y conversaciones de blogs, foros y sitios populares como Flickr, YouTube o Twitter.

FBI: Oficina Federal de Investigación, el equivalente americano a la Policía Nacional española. Sin entrar en detalles de sus múltiples cometidos y centrándonos en el tema que nos ocupa, son los responsables de Carnivore, el software concebido y desarrollado para investigar y descubrir actos de terrorismo, autores de virus, intrusos en la red y, en general, cualquier actividad que ellos consideren delictiva.

Carnivore es un programa diseñado por el FBI que se instala en los proveedores de servicios de Internet y monitoriza los paquetes de datos en busca de conversaciones sospechosas entre posibles criminales. En teoría, es capaz de diferenciar las cadenas de mensajes “legales” de las que el programa considera “ilegales”. El propio FBI proclama que su software de espionaje de comunicaciones no tiene prácticamente ordenador ni internauta que se le resista.

La manera en que Carnivore inspecciona los datos es evidentemente secreta. Muchas son las hipótesis que intentan encontrar la forma que tiene de tratar la información que recopila, pero podemos imaginar que cualquier texto en el que aparecen frases “antiamericanas” es inmediatamente monitorizado y archivado convenientemente.

Carnivore ha sido uno de los mayores fiascos tecnológicos de los últimos años. Si indagamos un poco por Internet, comprobamos rápidamente cómo aparecen documentos redactados por miembros del propio FBI hablando de la torpeza del sistema, la captura incorrecta de datos y la facilidad con que estas “interceptaciones no autorizadas judicialmente” pueden no sólo violar la privacidad del ciudadano sino que también pueden comprometer seriamente las investigaciones en curso.

En este momento hay varios procesos judiciales abiertos en contra del uso de este programa, aunque el FBI asegura que lo utiliza limitadamente y sólo siguiendo las órdenes de los tribunales cuando realiza investigaciones criminales. Esta agencia policial mantiene que Carnivore autoelimina la información que no le interesa y no husmea en los ordenadores de todos los internautas sino sólo en los de aquellos que son sospechosos de violar la ley.

En base a este esquema, nos encontramos diversos problemas técnicos (obviando las cuestiones ideológicas, morales y legales en esta valoración). El primero es que al trabajar las agencias de forma independiente no comparten información con los demás o lo 72 hacen de forma sesgada, lo que provoca una pérdida de eficacia en el trabajo desarrollado. Por otra parte, existe la circunstancia de que en los diferentes idiomas, los significados de las palabras varían según el contexto e, incluso, hay frases hechas con lecturas muy diferentes. Como consecuencia, los “enemigos” que conocen como funcionan estos programas, utilizan claves semánticas para no ser detectados. Finalmente, el inconveniente más importante es el inmenso volumen de información a tratar, que conlleva serias dificultades en el filtrado y tratamiento posterior de datos.

Aunque este capítulo intentaba ser una descripción desapasiona-da de los sistemas técnicos empleados por las agencias gubernamentales americanas y, en especial por el FBI, para controlar a los “enemigos” del imperio, no puedo dejar de pensar lo brutal que resulta que unos programas informáticos “inteligentes” irrumpan sistemáticamente en las comunicaciones del resto del mundo y dejen conceptos como la libertad individual y el derecho a la privacidad como variables aleatorias de una predicción matemática.

Sirva como ejemplo la anécdota que rememora siempre mi amigo Ángel García Castillejo, hoy vocal de la Comisión del Mercado de las Telecomunicaciones (CMT) y, a principios de los años 90, coordinador del grupo parlamentario de IU con Julio Anguita. Se estaban haciendo entonces las primeras pruebas de la entonces incipiente Red con el dominio de Izquierda Unida para su web. Tras la primera entrada de autocomprobación desde el servidor, la segunda e inmediata que tuvo IU fue una dirección terminada en punto mil, es decir, una institución militar desde los Estados Unidos. Increíble y sin embargo cierto.

This entry was posted on lunes, noviembre 29th, 2010 at 5:16 pm and is filed under Actualidad. You can follow any responses to this entry through the RSS 2.0 feed. Responses are currently closed, but you can trackback from your own site.

Comments are closed.