Apple ha lanzado un desafío de seguridad para su nuevo sistema de inteligencia artificial, prometiendo pagar hasta US$ 1 millón a quien logre encontrar vulnerabilidades en el Private Cloud Compute.
+ Impresionante Video: Vehículos de combate Bradley y Abrams destruyen posiciones rusas en la región de Kursk
+ Después de 11 Años, Hombre Recupera una Billetera de Bitcoin Valuada en 3 Millones de Dólares
Esta tecnología ha sido desarrollada para procesar datos de inteligencia artificial con total privacidad, prometiendo una protección y seguridad completas para el usuario, asegurando además que no se recolectará ninguna información personal, ni siquiera por parte de Apple.
El Private Cloud Compute es una infraestructura en la nube construida con un sistema de seguridad avanzado y cifrado de extremo a extremo, diseñado para procesar datos complejos de IA de manera privada y eliminar toda la información inmediatamente después de su uso.
Apple describe el sistema como la tecnología de seguridad más avanzada para la computación en la nube de IA, y anima a la comunidad de ciberseguridad a poner esta afirmación a prueba intentando vulnerar el sistema.
Para facilitar las pruebas, Apple ofrece a los participantes acceso al código fuente del Private Cloud Compute y una guía de seguridad, además de recompensas que van desde US$ 100 mil hasta US$ 1 millón para quienes encuentren fallos significativos. Con esto, la empresa busca no solo validar sus promesas de privacidad y seguridad, sino también mejorar el sistema gracias a las contribuciones de la comunidad técnica.
Fuente: LADbible | Foto: Unsplash | Este contenido ha sido creado con la ayuda de IA y revisado por el equipo editorial