Saltar al contenido
Ultimas Noticias de Criptomonedas Bitcoin, Ethereum, XRP

La distopía de vigilancia impulsada por inteligencia artificial de Larry Ellison ya está aquí

septiembre 17, 2024
la-distopia-de-vigilancia-impulsada-por-inteligencia-artificial-de-larry-ellison-ya-esta-aqui

Hay un comentario que se ha vuelto muy popular en las redes sociales cada vez que se revela una nueva y horrorosa práctica de vigilancia: «¡1984 se suponía que era una advertencia, no un manual de instrucciones!».

Este sentimiento se ha vuelto un poco tedioso, en parte porque decirlo en realidad no significa nada, y nuestro mundo real ha superado hace mucho tiempo la pesadilla distópica de George Orwell en algunos aspectos. Pero invocar 1984 como advertencia, no como manual de instrucciones, parece apropiado aquí, con el CEO de Oracle, Larry Ellison, la quinta persona más rica del mundo, presentando su emocionante visión de un mundo siempre activo, al estilo de 1984, impulsado por IOWA. Sueño febril de vigilancia a una audiencia de inversores.

0:00

/4:39

En las observaciones, que fueron Primero informado por Business InsiderEllison dijo que las cámaras corporales de la policía, las cámaras de los automóviles, los drones y otras cámaras estarán siempre encendidas y transmitiendo a los centros de datos de Oracle, donde la IA monitoreará constantemente las transmisiones.

“La policía se comportaría de la mejor manera posible, porque estamos constantemente observando y grabando todo lo que sucede”, dijo Ellison. “Los ciudadanos se comportarían de la mejor manera posible, porque estamos constantemente grabando e informando todo lo que sucede. Es desmontable. Los autos tienen cámaras”.

Vale la pena leer los comentarios de Ellison en su totalidad, porque lo que propone es un aparato de vigilancia integral que afecta a la mayor parte de las situaciones de estar en público. Más importante aún, todas las ideas que proponen existen actualmente de alguna forma, y ​​cada una de ellas presenta enormes problemas de privacidad, prejuicios, cuestiones legales o sociales que han impedido que se conviertan en la tecnología que cambie las reglas del juego y que, de algún modo, nos hagamos a todos más seguros.

Ellis: “Protección de las escuelas: creemos que podemos cerrar por completo las escuelas para reducir el riesgo de que haya alguien en el campus que no debería estar allí, y alertar inmediatamente a alguien, usar cámaras con inteligencia artificial para reconocerlo de inmediato”.

La idea de que las escuelas pueden volverse más seguras con tecnología (o profesores armados, o más policías) en lugar de, por ejemplo, dificultar el acceso a las armas, se ha convertido en una mina de oro para las empresas de tecnología de vigilancia en la era de tiroteos escolares casi constantes. Muchas escuelas han comenzado a Implementar detectores de armas potenciados por IAque son notoriamente inexactos y que, por ejemplo, han detectado cuadernos como «armas», han pasado por alto armas reales y han llevado a lo que un administrador llamado «el día menos seguro» debido a Confusión masiva asociada con los escáneresLos estudiantes también están siendo monitoreados en los pasillos, En el baño, En las redes socialesy en su dispositivos proporcionados por la escuelaNo está claro si todo esto ha hecho que las escuelas sean más seguras. Axon, por su parte, lanzó la idea de Drones equipados con taser que patrullan escuelasuna idea que fue rápidamente descartada después Indignación pública generalizada y la dimisión de su propio consejo de ética Sobre la idea.

Ellis: “Hemos rediseñado por completo las cámaras corporales. Nuestras cámaras corporales cuestan 70 dólares, una cámara corporal normal cuesta, no sé, 7.000 dólares. Nuestras cámaras corporales son simplemente lentes, dos lentes unidas a un chaleco que se adhiere al teléfono inteligente que llevas puesto. Grabamos el vídeo del agente de policía. Y la cámara siempre está encendida. No enciendes y apagas.

[A police officer can say]“Oracle, necesito dos minutos para ir al baño”, y lo apagamos. La verdad es que en realidad no lo apagamos. Lo que hacemos es grabarlo, para que nadie pueda verlo, para que nadie pueda acceder a esa grabación sin una orden judicial. Así que obtienes la privacidad que solicitaste, pero por orden judicial, un juez ordenará esa llamada pausa para ir al baño. Surge algo, voy a almorzar con mis amigos. “Oracle, necesito una hora de privacidad para almorzar con mis amigos”. Dios los bendiga. No escucharemos, a menos que haya una orden judicial. Pero transmitimos el video a la sede central, y AI está monitoreando el video constantemente”.

Ellison tiene razón en que el hecho de que la policía apague sus cámaras corporales es un problema bien documentado. Intuitivamente, también se podría pensar que las cámaras corporales mejorarían el comportamiento de la policía. Pero la evidencia de esto en realidad no es tan sólida. Los académicos han demostrado que tener una cámara corporal encendida no hace que un policía se sienta culpable. Diferencia estadística o consistente en el comportamiento policial en parte porque hay muchos casos de policías filmados cometiendo actos de brutalidad donde el oficial en cuestión no enfrenta consecuencias severas.

Acceso público a las imágenes de las cámaras corporales También es increíblemente desigual; Las leyes de registros públicos difieren en cada estado en cuanto a si los periodistas y las organizaciones de rendición de cuentas policiales pueden obtener esas imágenes. Ellison propone una situación en la que las imágenes no serán guardadas y analizadas por un departamento de policía pública, sino por Oracle y los sistemas de inteligencia artificial de Oracle. «No escucharemos, a menos que haya una orden judicial» significa, por supuesto, que están escuchando, y tiene todo tipo de implicaciones sobre quién puede acceder a este tipo de imágenes, cuándo y bajo qué circunstancias.

Ellis: «Recuerden este terrible caso en Memphis ¿Dónde cinco policías básicamente golpearon hasta matar a otro ciudadano en Memphis? Bueno, eso no puede suceder porque lo transmitirían por televisión en la sede central. Todo el mundo lo vería. Las cámaras corporales lo transmitirían.

La policía se comportaría de la mejor manera posible, porque estamos constantemente observando y grabando todo lo que sucede. Los ciudadanos se comportarían de la mejor manera posible, porque estamos constantemente grabando e informando de todo lo que sucede. Es irreprochable. Los autos tienen cámaras. Creo que tenemos un coche patrulla en algún lugar. Esas aplicaciones… estamos usando IA para monitorear el video. De modo que el altercado que ocurrió en Memphis, el jefe de policía sería notificado de inmediato. No son las personas las que miran esas cámaras, es la IA la que mira la cámara, [saying] «No, no, no, no puedes hacer esto. Es un evento». Sonará una alarma y tendremos supervisión. Todos los agentes de policía estarán supervisados ​​en todo momento. Y si hay un problema, AI se lo informará a la persona adecuada, ya sea el sheriff, el jefe o quien sea que necesitemos para tomar el control de la situación».

Impulsado por IA y cámaras inteligentes conectadas hijo Ya en uso en Estados Unidos y en todo el mundo. También lo son los lectores de matrículas automáticas, los micrófonos detectores de disparos con tecnología de inteligencia artificial, las cámaras de seguridad domésticas conectadas, la tecnología de reconocimiento facial, etc. Las imágenes de Tesla están siendo citadas y utilizado en investigaciones policiales.

El crimen sigue existiendo y los falsos positivos y los casos de identidades equivocadas son comunes en la mayoría de estas tecnologías. Empresas como Predpol, Shotspotter, Flock, Fusus, Axon y muchas otras llevan muchos años promoviendo la idea de una vigilancia predictiva y reactiva al instante como medida disuasoria.

Estas tecnologías son todo menos “irrefutables”. Ha habido numerosos incidentes de hombres negros identificados erróneamente por tecnología de reconocimiento facial, casos de policías que respondieron automáticamente a un supuesto disparo que no era un disparo y casos de vigilancia excesiva por delitos menores o disturbios menores. En Sudáfrica, por ejemplo, se ha acusado a las cámaras de vigilancia inteligentes conectadas con IA de creando un “nuevo apartheid” debido a sesgos dentro de sus sistemas.

Ellis: “Tenemos drones. Un dron llega a donde está el vehículo mucho más rápido que un coche de policía. No se deben hacer persecuciones a alta velocidad con coches. Basta con que el dron siga al coche, es muy sencillo. Una nueva generación de drones autónomos. Un incendio forestal: el dron detecta un incendio forestal y luego desciende y mira a su alrededor para ver si hay un ser humano cerca de esa zona de calor, o si alguien más tenía una fogata desatendida que se incrementó o si fue provocada. Podemos hacer todo eso. Todo se hace de forma autónoma con IA”.

Este sistema se llama “Los drones como primeros auxiliares”, también ya existe, y también hay problemas con esto. Se están utilizando drones para vigilar automáticamente campamentos de personas sin hogar, fiestas en casas, adolescentes ruidosos y una persona que “rebota una pelota contra un garaje”. La tecnología de inteligencia artificial y drones para prevenir incendios también forestales es algo en lo que se han invertido millones de dólares, con Resultados decepcionantes hasta el momento.

Todo esto quiere decir que el sueño febril de vigilancia de Larry Ellison no es en realidad un sueño febril: todas estas son tecnologías que ya existen de alguna forma, muchas de las cuales no han reducido de manera mensurable el crimen ni han resuelto los complicados problemas. sociales, políticos y económicos que conducen al crimen en primer lugar o las estructuras de poder social que protegen a la policía en todo momento. Estas tecnologías han costado en conjunto millas de millones de dólares, han enriquecido mucho a las empresas de vigilancia y han creado nuevos problemas de privacidad. El Gran Hermano está aquí y, sorpresa, tener “supervisión” de IA no ha creado una utopía sin crímenes.

Acerca del autor

Jason es cofundador de 404 Media. Anteriormente fue editor jefe de placa base. Le encanta la Ley de Libertad de Información y navegar.

Jason Koebler

Ajustes