Apple har varit känt för sina säkerhets- och sekretesspolicyer. Men den senaste planen att skanna iPhone-foton har väckt larm i teknikvärlden. Apple planerar att implementera denna plan för att sätta stopp för de ökande fallen av sexuellt övergrepp mot barn (CASM).
Sexuellt explicit innehåll är inte acceptabelt i samhället både moraliskt och juridiskt men sexhandel har gjort det obligatoriskt att ta några hårda steg för företag som Apple. Apple kommer att skanna foton på iPhone och kommer att ta reda på om användaren är inblandad i sex-/människosmuggling och denna åtgärd kommer att vara ett steg framåt för att få slut på detta onda i samhället.
Denna nya plan för Apple är dock sett ner på av sina användare eftersom användare är oroade över sin integritet. Detta är utan tvekan ett integritetsintrång där data på din telefon inte kommer att vara säker eftersom Apples nya fotoskanningssystem på iPhone kommer att ha din information.
Skannanar Apple dina iPhone-foton? Så här skannar den?
CSAM-detekteringsteknik kommer att vara tillgänglig med de nya iOS 15-uppdateringarna som kommer att innehålla tre funktioner för att styra CASM.
- Den första funktionen i uppdateringen kommer att vara föräldrakontroll. När den här funktionen är aktiverad kommer den att skanna fotona i appen Messages på barntelefonen och om något explicit innehåll upptäcks skickas ett meddelande.
- Den andra funktionen i uppdateringen kommer att skanna foton i iCloud för material med sexuella övergrepp mot barn.
- Den tredje funktionen i uppdateringen kommer att varna användare när de använder Siri eller sökfältet i safari för explicit innehåll.
Alla tre funktioner hjälper till att utrota CSAM-ondskan från samhället genom att upptäcka och flagga sexuellt explicit innehåll som involverar barn på en enhet. CSAM sprider sig som ett virus med miljontals videor och bilder. Med tiden har cirka 19 000 offer identifierats av brottsbekämpande myndigheter.
Apple sa att dess nya funktioner syftar till "att hjälpa till att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem, och begränsa spridningen av barnsexuella missbruksmaterial.”
Hur kommer den här funktionen att fungera?
Apples CSAM-detekteringsteknik är baserad på en datorbaserad algoritm som skannar iCloud-bilder och sedan jämför dem med koder för kända bilder på sexuella övergrepp mot barn. Dessa koder lagras i databasen för barnsäkerhetsorganisationer, inklusive National Center for Missing and Exploited Children (NCMEC).
Om fotot matchas med databasen kommer en person att granska bilden för att se om det är CSAM. Om bilden kommer att bestämmas vara en CSAM kommer ditt konto att stängas av av Apple och det kommer att rapporteras till brottsbekämpande myndigheter och NCMEC.
Kommer ny teknik att bli ett säkerhetshot?
Med introduktionen av nya funktioner i uppdateringen kommer Apple säkerligen att omfatta användarnas säkerhet eftersom det kommer att påverka end-to-end-kryptering. Denna skanningsfunktion kan bli ett kryphål för regeringen, hackare, anställda på Apple själv som kan få obehörig åtkomst till dina data kan använda den av personliga motiv. Det kan vara ett allvarligt hot mot användarens integritet eftersom sådan känslig data kan äventyras av vilken myndighet som helst och kan leda till en större kollaps av integriteten.
Enligt Hijazi. "Jag tror att Apples hjärta är på rätt plats, och det försöker göra det rätta här, men den här åtgärden är helt enkelt för omfattande eftersom den offrar integriteten för alla i processen."
Är finns det något sätt att stoppa Apple från att skanna fotona?
Enligt Hijazi. "Om du bryr dig om din integritet, bör du anta att alla iOS-enheter är sårbara för kryptering från början till slut och fullständig bildåtkomst", säger han. "Det finns inget sådant som integritet online eller på någon ansluten enhet, och du bör alltid anta att så är fallet och bete dig därefter."
Det finns en utväg genom vilken du kan stoppa Apple från att genom att skanna dina iCloud-foton och skydda din integritet. Du kan inaktivera iCloud-lagring för dina foton och kan säkerställa din integritet.
Följ stegen för att inaktivera iCloud-foton:-
- Välj Inställningar> Foton
- Stäng av reglaget för iCloud-foton
- Välj Ladda ner Foton och videor i popup-fönstren för att ladda ner fotona från din iCloud till enheten istället.
Slutsats:-
CSAM är ett bra steg för att förebygga sexuella övergrepp mot barn, men ja det faktum att inte ignoreras är att integriteten läcker ut på det här sättet. Apple kunde ha vidtagit andra åtgärder som inte kränker användarnas integritet och samtidigt kan sexuella övergrepp mot barn förhindras.
Men om en individ är ren och vet att det inte finns något skumt i hans data, då borde han inte ge gehör för några rykten och stöd i den ädla saken och ett steg som Apple tagit. Följ oss på sociala medier – .
Läs: 0