Apple har lanserat en säkerhetsutmaning för sitt nya artificiell intelligens-system och lovar upp till 1 miljon dollar till den som kan hitta sårbarheter i Private Cloud Compute.
Denna teknik har utvecklats för att bearbeta AI-data med fullständig integritet, vilket ger användaren komplett skydd och säkerhet utan att några personliga data samlas in – inte ens av Apple själva.
+ Imponerande Video: Stridsfordon Bradley och Abrams förstör ryska positioner i Kursk-regionen
+ Efter 11 år återfår man Bitcoin-plånbok värd 3 miljoner dollar
Private Cloud Compute är en molninfrastruktur byggd med avancerat säkerhetssystem och end-to-end-kryptering, utformad för att hantera komplexa AI-data på ett privat sätt och radera all information direkt efter användning.
Apple beskriver systemet som den mest avancerade säkerhetstekniken för AI-molnbearbetning och uppmanar cybersäkerhetsgemenskapen att testa detta påstående genom att försöka bryta sig in i systemet.
För att underlätta testerna erbjuder Apple deltagarna tillgång till källkoden för Private Cloud Compute samt en säkerhetsguide, och belöningar som sträcker sig från 100 000 till 1 miljon dollar för dem som hittar betydande sårbarheter. På så sätt hoppas Apple inte bara kunna bekräfta sina löften om integritet och säkerhet, utan även förbättra systemet med hjälp av tekniska gemenskapen.
Källa: LADbible | Foto: Unsplash | Detta innehåll skapades med hjälp av AI och har granskats av redaktionsteamet