En los últimos años nos hemos acostumbrado a interactuar con la tecnología en todo tipo de escenarios: en casa, en el trabajo, en el coche, en la muñeca…
Las gafas inteligentes prometían llevar eso a otro nivel, al poder ver todo lo que nosotros vemos, cuando así lo pidamos, claro.
Y se avistaban posibles problemas de privacidad, pero empresas como Meta hacían hincapié en que esta era una prioridad para ellos. Parece que no tanto como debería.
Estos dispositivos, equipados con cámaras y sistemas de inteligencia artificial de última generación, han abierto una ventana directa a la vida cotidiana de los usuarios, y también a la de todas las personas que se cruzan en su camino.
El análisis de cómo se gestionan estos datos revela una realidad inquietante sobre la supervisión humana detrás de los algoritmos.

Ray-Ban Meta Headliner (Gen 2)
Omicrono
El funcionamiento de estos accesorios se basa en la capacidad de capturar imágenes y vídeos de forma casi imperceptible para el entorno. Sin embargo, el verdadero núcleo del problema reside en la función denominada Look and Ask, que permite a los usuarios preguntar a la inteligencia artificial sobre lo que están viendo en ese preciso momento.
Para que este sistema funcione con precisión, las imágenes deben ser enviadas a los servidores de la compañía, donde son procesadas por modelos de aprendizaje automático.
El punto crítico, sacado a la luz por una investigación periodística sueca, es que este proceso no es puramente mecánico. Existe una intervención humana constante que pone en entredicho las promesas de anonimato y seguridad de los datos personales.
Informaciones recientes indican que grupos de trabajadores externos son los encargados de revisar, etiquetar y analizar las capturas realizadas por los usuarios para entrenar y mejorar la capacidad de respuesta de la inteligencia artificial.
Como indica el analista Aakash Gupta, “cuando dices “Hola Meta” y pides a las gafas que analicen algo, ese vídeo se envía a los servidores de Meta y luego a Sama, un subcontratista en Nairobi, Kenia.”
Allí los trabajadores etiquetan manualmente los objetos de cada una de las grabaciones. Y, en teoría, las partes sensibles deberían emborronarse mediante un software automatizado, pero en ciertas condiciones ese software falla, por lo que los revisores humanos pueden verlo todo.
Estos empleados han manifestado de manera anónima que tienen acceso a una cantidad ingente de momentos privados, desde escenas domésticas y sexuales hasta interacciones en el lugar de trabajo. Incluso datos bancarios han quedado expuestos.
La frase “Vemos todo” se ha convertido en un lema interno que refleja la magnitud del acceso que la empresa tiene sobre la cotidianidad de sus clientes.
Aunque la narrativa oficial suele centrarse en la evolución de las herramientas digitales, la realidad operativa muestra un sistema de vigilancia que se alimenta de la falta de conciencia del usuario sobre el destino final de su información visual.
La transparencia ha sido uno de los puntos más cuestionados en la estrategia de Meta.
Si bien la empresa afirma que utiliza estas imágenes para el entrenamiento de sus modelos, muchos usuarios no comprenden que el consentimiento otorgado al aceptar los términos de servicio implica que un extraño pueda estar observando una fotografía de su salón, de sus hijos o de documentos confidenciales que estaban sobre una mesa en el momento de activar la función de consulta.
Esta práctica crea una asimetría de información donde el consumidor busca una mejora en su productividad o entretenimiento, mientras que la corporación obtiene una base de datos visual sin precedentes para fortalecer su posición en el mercado de la inteligencia artificial.

Oakley Meta Vanguard
Omicrono
Desde una perspectiva ética, la implementación de estas tecnologías plantea interrogantes sobre el futuro del espacio público.
Si cada par de gafas en una calle concurrida puede estar registrando y enviando datos para ser analizados por terceros, el concepto de anonimato desaparece.
Y no se trata solo de la privacidad del conjunto de los ciudadanos, sino también del propietario del dispositivo. De saberlo, la mayoría de usuarios preferiría no ser parte del entrenamiento de un algoritmo.
La dependencia de revisores humanos para perfeccionar los sistemas de inteligencia artificial demuestra que la tecnología aún no es autónoma y que requiere de una incursión profunda en la intimidad de las personas para progresar.
El camino hacia un futuro digital más ético requiere que se ponga fin a la práctica de ocultar la supervisión humana detrás de interfaces amigables.
