Evolución de la vigilancia en la Web3 - Parte 1: "Ante la vigilancia impulsada por la IA"

Los métodos de vigilancia evolucionan a medida que evoluciona la tecnología. En la era de Web3, la combinación de inteligencia artificial y sistemas de datos centralizados plantea amenazas significativas a la privacidad y la libertad de expresión. La lección de hoy profundiza en la naturaleza cambiante de la vigilancia y destaca el papel crítico de los sistemas descentralizados para contrarrestar estos desafíos.

"Ante la vigilancia impulsada por la IA, necesitamos computación confidencial descentralizada" discute los crecientes peligros de la vigilancia impulsada por la IA y aboga por soluciones descentralizadas para proteger la confidencialidad y la autonomía del usuario.

Frente a la vigilancia impulsada por IA, necesitamos una informática confidencial descentralizada

A medida que se expande la vigilancia de IA, DeCC ofrece un enfoque descentralizado para proteger información confidencial con transparencia y rendición de cuentas.

Por Yannik Schrade
Oct. 26, 2024 at 2:21 pm UTC

image
Portada/ilustración a través de CryptoSlate. La imagen incluye contenido combinado que puede incluir contenido generado por AI.

Cuando el CTO de IA de Oracle, Larry Ellison, compartió su visión de una red global de vigilancia impulsada por IA que mantendría a los ciudadanos en su "mejor comportamiento", los críticos se apresuraron a hacer comparaciones con 1984 de George Orwell y describir su discurso empresarial como distópico. La vigilancia masiva es una violación de la privacidad, tiene efectos psicológicos negativos y intimida a las personas para que no participen en protestas.

Pero lo más inquietante de la visión del futuro de Ellison es que la vigilancia masiva impulsada por IA ya es una realidad. Durante los Juegos Olímpicos de este año, el gobierno francés contrató a cuatro compañías tecnológicas - Videtics, Orange Business, ChapsVision y Wintics - para llevar a cabo la videovigilancia en París, utilizando análisis basados en IA para monitorear el comportamiento y alertar la seguridad.


La creciente realidad de la vigilancia masiva impulsada por IA

Esta controvertida política fue posible gracias a la legislación aprobada en 2023, que permite el desarrollo de un nuevo software de IA para analizar datos sobre el público. Si bien Francia es el primer país de la Unión Europea en legalizar la vigilancia impulsada por IA, el análisis de video no es nada nuevo.

El gobierno del Reino Unido instaló por primera vez CCTV en las ciudades durante la década de 1960, y en 2022, 78 de los 179 países de la OCDE estaban utilizando IA para sistemas públicos de reconocimiento facial. Se espera que la demanda de esta tecnología aumente a medida que la IA avance y permita servicios de información más precisos y a mayor escala.

Históricamente, los gobiernos han aprovechado los avances tecnológicos para mejorar los sistemas de vigilancia masiva, a menudo contratando a empresas privadas para que hagan el trabajo sucio por ellos. En el caso de los Juegos Olímpicos de París, las empresas de tecnología pudieron probar sus modelos de formación en IA en unla escala de un evento público, obteniendo acceso a información sobre la ubicación y el comportamiento de millones de personas que asisten a los juegos y que se ocupan de su vida cotidiana en la ciudad.


Privacidad vs. seguridad pública: el dilema ético de la vigilancia por IA

Los defensores de la privacidad como yo argumentarían que el monitoreo por video inhibe a las personas de vivir libremente y sin ansiedad. Los políticos que emplean estas tácticas pueden argumentar que se están utilizando en nombre de la seguridad pública; la vigilancia también mantiene a las autoridades bajo control, por ejemplo, exigiendo a los oficiales de policía que usen cámaras corporales. En primer lugar, se plantea la cuestión de si las empresas tecnológicas deben tener acceso a los datos públicos, pero también la cantidad de información sensible que puede almacenarse y transferirse con seguridad entre múltiples partes.

Lo que nos lleva a uno de los mayores retos para nuestra generación: el almacenamiento de información sensible en línea y cómo se gestiona esa información entre diferentes partes. Cualquiera que sea la intención de los gobiernos o las empresas que recopilan datos privados a través de la vigilancia de la IA, ya sea para la seguridad pública o las ciudades inteligentes, debe haber un entorno seguro para el análisis de datos.


Informática confidencial descentralizada: una solución para la privacidad de los datos de IA

El movimiento por la informática confidencial descentralizada (DeCC) ofrece una visión de cómo abordar este problema. Muchos modelos de capacitación en IA, como Apple Intelligence, utilizan entornos de ejecución confiables (TEEs) que dependen de una cadena de suministro con puntos únicos de falla que requieren la confianza de terceros, desde la fabricación hasta el proceso de certificación. DeCC tiene como objetivo eliminar estos puntos únicos de fallo, estableciendo un sistema descentralizado y sin confianza para el análisis y procesamiento de datos.

Además, el DeCC podría permitir que los datos fueran analizados sin descifrar información confidencial. En teoría, una herramienta de análisis de vídeo construida sobre una red DeCC puede alertar de una amenaza a la seguridad sin exponer información confidencial sobre individuos que han sido grabados a las partes que monitorean con esa herramienta.

Actualmente se están probando varias técnicas descentralizadas de informática confidencial, entre ellas las pruebas de conocimiento cero (ZKP), el cifrado totalmente homomorfo (FHE) y la computación multiparte (MPC). Todos estos métodos están esencialmente tratando de hacer lo mismo - verificar la información esencial sin revelar información sensible de ninguna de las partes.

MPC se ha convertido en el líder de DeCC, permitiendo una liquidación transparente y una divulgación selectiva con la mayor potencia computacional y eficiencia. Los MPCs permiten la construcción de entornos multipartitos (MXE). Contenedores de ejecución virtual y cifrados, en los que cualquier programa informático puede ejecutarse de forma totalmente cifrada y confidencial.

En el contexto, esto permite tanto la formación sobre datos cifrados altamente sensibles y aislados como la inferencia utilizando datos cifrados y modelos cifrados. Así pues, en la práctica el reconocimiento facial podría llevarse a cabo manteniendo estos datos ocultos de las partes que procesan esa información.

Los análisis obtenidos a partir de esos datos podrían entonces compartirse entre diferentes partes relacionadas, como las autoridades de seguridad. Incluso en un entorno basado en la vigilancia, es posible al menos introducir transparencia y rendición de cuentas en la vigilancia que se lleva a cabo manteniendo la mayor parte de los datos confidenciales y protegidos.

Aunque la tecnología informática confidencial descentralizada se encuentra todavía en una fase de desarrollo, su aparición pone de manifiesto los riesgos asociados con los sistemas de confianza y ofrece un método alternativo para cifrar los datos. En la actualidad, el aprendizaje automático se está integrando en casi todos los sectores, desde la planificación urbana hasta la medicina, el entretenimiento y otros.

Para cada uno de estos casos de uso, los modelos de formación se basan en los datos del usuario y el DeCC será fundamental para garantizar la privacidad individual y la protección de los datos en el futuro. Para evitar un futuro distópico, necesitamos descentralizar la inteligencia artificial.


Articulo original en inglés: https://cryptoslate.com/in-the-face-of-ai-powered-surveillance-we-need-decentralized-confidential-computing/


Complete and Continue