Miles de herramientas de aprendizaje automático, incluidas algunas pertenecientes a grandes empresas de tecnología, están expuestas a la Internet abierta, lo que permite que cualquiera interactúe con ellas y potencialmente exponga datos confidenciales, según un investigador de seguridad que compartió sus hallazgos con 404 Media.
La noticia muestra que incluso mientras las empresas y los investigadores avanzan con la investigación sobre inteligencia artificial, proteger esas herramientas a veces se reduce a las mismas viejas mejores prácticas de autenticación y seguridad de cuentas que se aplican a otros tipos de cuentas.
«Además de los propios modelos de aprendizaje automático, los datos expuestos pueden incluir conjuntos de datos de entrenamiento, hiperparámetros y, a veces, incluso datos sin procesar utilizados para construir modelos», dijo en un artículo Charan Akiri, investigador de seguridad e ingeniero de líder de seguridad en Reddit. de su investigación.
Esta publicación es solo para pagos de miembros.
Conviértase en miembro pago para obtener acceso ilimitado y sin publicidad a artículos, contenido adicional de podcasts y más.
Regístrate para acceder gratis a esta publicación
Los miembros obtienen acceso gratuito a publicaciones como esta junto con un resumen por correo electrónico de las historias de nuestra semana.
¿Ya tienes una cuenta? Iniciar sesión