La vigilancia masiva: cómo la ciencia alimenta la inteligencia artificial

Comenzar

La inteligencia artificial que nos observa: así alimenta la ciencia la vigilancia masiva

Descubre cómo la tecnología de visión por ordenador se vincula con la vigilancia masiva

Imagina una tecnología capaz de ayudar a un coche a frenar justo a tiempo para evitar atropellar a un peatón. O un sistema que permite diagnosticar enfermedades en imágenes médicas con más precisión que el ojo humano. Incluso, una herramienta que analiza el crecimiento de los bosques o detecta incendios en tiempo real desde imágenes satelitales. Todo eso es posible gracias a la visión por ordenador, una rama de la inteligencia artificial que dota a las máquinas de una suerte de ‘sentido de la vista’.

Sin embargo, un reciente estudio revela una imagen muy distinta y perturbadora. Según una investigación publicada en ‘Nature’, la mayoría de avances en visión artificial están directa o indirectamente relacionados con la vigilancia masiva de personas. Este descubrimiento plantea serias interrogantes sobre el uso actual y futuro de la inteligencia artificial en nuestra sociedad.

La conexión entre la tecnología y la vigilancia masiva

El estudio liderado por Pratyusha Ria Kalluri, de la Universidad de Stanford, analizó más de 19.000 artículos científicos publicados en la conferencia CVPR entre 1990 y 2020, revelando que el 90% de estos artículos y el 86% de las patentes derivadas se vinculan con tecnologías de vigilancia. Sorprendentemente, más del 70% de estos desarrollos se enfocan directamente en partes del cuerpo humano, como el rostro, los ojos o las extremidades.

Los investigadores destacan la tendencia de utilizar un lenguaje ambiguo para referirse a las personas como ‘objetos’ en lugar de seres humanos, lo que revela una preocupante normalización de la vigilancia masiva en la comunidad científica.

Implicaciones y riesgos para los derechos humanos

El informe advierte sobre las graves consecuencias que la proliferación de tecnologías de vigilancia masiva puede tener en los derechos humanos, incluyendo la privacidad, la libertad de expresión y el derecho a no ser vigilado sin consentimiento. Esta situación, denominada por algunos como la condición ‘sin salida’, plantea un escenario en el que los ciudadanos se ven constantemente observados y rastreados sin posibilidad de escape.

En países como China, el uso de la inteligencia artificial para el control de la población ha generado miedo y autocensura, especialmente entre comunidades minoritarias como los uigures. Esta situación pone de manifiesto la urgente necesidad de reflexionar sobre el rumbo que está tomando el desarrollo de la IA y establecer límites éticos claros.

Hacia un futuro más ético y responsable

Los investigadores instan a la comunidad científica a rechazar proyectos de vigilancia masiva y enfocar sus esfuerzos en desarrollar inteligencia artificial que respete los derechos humanos y promueva el bienestar colectivo. Es necesario una revisión profunda de los fundamentos del campo de la visión por ordenador para garantizar que la tecnología se utilice para el beneficio de la sociedad y no en su perjuicio.

El cambio no solo requiere modificaciones en las aplicaciones existentes, sino una transformación completa en la forma en que concebimos y desarrollamos la inteligencia artificial. Es momento de reflexionar y actuar en pos de un futuro más ético y responsable en el ámbito de la tecnología.

Conclusión

La investigación sobre la relación entre la visión por ordenador y la vigilancia masiva plantea importantes cuestionamientos sobre el uso actual de la inteligencia artificial. Es fundamental que como sociedad nos detengamos a reflexionar sobre los límites éticos y el impacto de estas tecnologías en nuestra vida cotidiana. Solo a través de una mayor conciencia y un enfoque ético en la investigación y desarrollo de la IA podremos garantizar un futuro en el que la tecnología sirva para el bien común.

Prensa24.es