A Apple lançou um desafio de segurança para seu novo sistema de inteligência artificial, prometendo pagar até US$ 1 milhão para quem conseguir encontrar vulnerabilidades no Private Cloud Compute.
+Meta AI chega ao WhatsApp, mas liberação gradual gera expectativa e dúvidas sobre acesso
+Vídeo: Fenômeno raro surpreende moradores em cidade do Brasil
Essa tecnologia foi desenvolvida para processar dados de inteligência artificial com privacidade total, prometendo proteção completa e segurança para o usuário, além de assegurar que nenhuma informação pessoal seja coletada, nem mesmo pela própria Apple.
O Private Cloud Compute é uma infraestrutura em nuvem construída com um sistema de segurança avançado e criptografia de ponta a ponta, projetado para processar dados complexos de IA de forma privada e deletar todas as informações imediatamente após o uso.
A Apple descreve o sistema como a tecnologia de segurança mais avançada para computação em nuvem de IA, e encoraja a comunidade de cibersegurança a testar essa afirmação tentando invadir o sistema.
Para facilitar os testes, a Apple oferece aos participantes acesso ao código-fonte do Private Cloud Compute e um guia de segurança, além de recompensas que variam de US$ 100 mil a US$ 1 milhão para quem encontrar falhas significativas. Com isso, a empresa visa não só validar suas promessas de privacidade e segurança, mas também aprimorar o sistema com contribuições da comunidade técnica.
Fonte: LADbible | Foto: Unsplash | Este conteúdo foi criado com a ajuda da IA e revisado pela equipe editorial
This post was last modified on 2024-10-29 10:54