ఆపిల్ కొత్త CSAM డిటెక్షన్ గురించి వినియోగదారుల గోప్యతా ఆందోళనలను తగ్గించే లక్ష్యంతో 'పిల్లల కోసం విస్తరించిన రక్షణలు' పేరుతో తరచుగా అడిగే ప్రశ్నలను ప్రచురించింది. iCloud ఫోటోలు మరియు కంపెనీ అందించే మెసేజెస్ ఫీచర్ల కోసం కమ్యూనికేషన్ భద్రత గత వారం ప్రకటించింది .
'మేము ఈ ఫీచర్లను ప్రకటించినప్పటి నుండి, గోప్యతా సంస్థలు మరియు పిల్లల భద్రతా సంస్థలతో సహా చాలా మంది వాటాదారులు ఈ కొత్త పరిష్కారానికి తమ మద్దతును తెలియజేసారు మరియు కొందరు ప్రశ్నలను సంప్రదించారు' అని FAQ చదువుతుంది. 'ఈ ప్రశ్నలను పరిష్కరించడానికి మరియు ప్రక్రియలో మరింత స్పష్టత మరియు పారదర్శకతను అందించడానికి ఈ పత్రం ఉపయోగపడుతుంది.'
కొన్ని చర్చలు రెండు లక్షణాల మధ్య వ్యత్యాసాన్ని అస్పష్టం చేశాయి మరియు ఆపిల్ చాలా కష్టపడుతుంది పత్రం వాటిని వేరు చేయడానికి, మెసేజ్లలో కమ్యూనికేషన్ భద్రత 'ఫ్యామిలీ షేరింగ్లో సెటప్ చేయబడిన పిల్లల ఖాతాల కోసం సందేశాల యాప్లో పంపబడిన లేదా స్వీకరించిన చిత్రాలపై మాత్రమే పని చేస్తుంది,' అయితే iCloud ఫోటోలులో CSAM డిటెక్షన్; 'ఐక్లౌడ్ ఫోటోలుని ఉపయోగించడానికి ఎంచుకున్న వినియోగదారులపై మాత్రమే ప్రభావం చూపుతుంది. వారి ఫోటోలను నిల్వ చేయడానికి... ఇతర పరికరంలోని డేటాపై ఎలాంటి ప్రభావం ఉండదు.'
తరచుగా అడిగే ప్రశ్నలు నుండి:
iphone xrలో ఎన్ని కెమెరాలు ఉన్నాయి
ఈ రెండు లక్షణాలు ఒకేలా ఉండవు మరియు ఒకే సాంకేతికతను ఉపయోగించవు.
సందేశాల యాప్లో లైంగిక అసభ్యకరమైన చిత్రాలను పంపడం మరియు స్వీకరించడం నుండి వారి పిల్లలను రక్షించడంలో సహాయం చేయడానికి తల్లిదండ్రులు మరియు పిల్లలకు అదనపు సాధనాలను అందించడానికి సందేశాలలో కమ్యూనికేషన్ భద్రత రూపొందించబడింది. కుటుంబ భాగస్వామ్యంలో సెటప్ చేయబడిన పిల్లల ఖాతాల కోసం సందేశాల యాప్లో పంపబడిన లేదా స్వీకరించిన చిత్రాలపై మాత్రమే ఇది పని చేస్తుంది. ఇది పరికరంలోని చిత్రాలను విశ్లేషిస్తుంది మరియు సందేశాల గోప్యతా హామీలను మార్చదు. పిల్లల ఖాతా లైంగిక అసభ్యకరమైన చిత్రాలను పంపినప్పుడు లేదా స్వీకరించినప్పుడు, ఫోటో అస్పష్టంగా ఉంటుంది మరియు పిల్లలకు హెచ్చరిస్తుంది, సహాయక వనరులతో అందించబడుతుంది మరియు వారు ఫోటోను చూడకూడదనుకుంటే లేదా పంపకూడదనుకుంటే ఫర్వాలేదు అని భరోసా ఇవ్వబడుతుంది. అదనపు ముందుజాగ్రత్తగా, చిన్న పిల్లలకు కూడా చెప్పవచ్చు, వారు సురక్షితంగా ఉన్నారని నిర్ధారించుకోవడానికి, వారి తల్లిదండ్రులు దానిని వీక్షిస్తే వారికి సందేశం వస్తుంది.
రెండవ ఫీచర్, iCloud ఫోటోలలో CSAM డిటెక్షన్, తెలిసిన CSAM ఇమేజ్లతో సరిపోలే ఫోటోలు కాకుండా ఇతర ఫోటోల గురించి Appleకి సమాచారం అందించకుండా, iCloud ఫోటోల నుండి CSAMని ఉంచడానికి రూపొందించబడింది. యునైటెడ్ స్టేట్స్తో సహా చాలా దేశాల్లో CSAM చిత్రాలను కలిగి ఉండటం చట్టవిరుద్ధం. ఈ ఫీచర్ వారి ఫోటోలను నిల్వ చేయడానికి iCloud ఫోటోలను ఉపయోగించడానికి ఎంచుకున్న వినియోగదారులపై మాత్రమే ప్రభావం చూపుతుంది. ఇది iCloud ఫోటోలను ఉపయోగించడానికి ఎంచుకోని వినియోగదారులపై ప్రభావం చూపదు. పరికరంలోని ఇతర డేటాపై ఎలాంటి ప్రభావం ఉండదు. ఈ ఫీచర్ సందేశాలకు వర్తించదు.
కింది సాధారణంగా అడిగే ప్రశ్నలకు సమాధానాలతో మిగిలిన పత్రం మూడు విభాగాలుగా (క్రింద బోల్డ్లో) విభజించబడింది:
iphone 12కి స్క్రీన్ ప్రొటెక్టర్ అవసరమా
తదుపరి ఐఫోన్ ఎప్పుడు విడుదల అవుతుంది
- సందేశాలలో కమ్యూనికేషన్ భద్రతను ఎవరు ఉపయోగించగలరు?
- దీని అర్థం Messages Apple లేదా చట్టాన్ని అమలు చేసే వారితో సమాచారాన్ని పంచుకుంటాయా?
- ఇది సందేశాలలో ఎండ్-టు-ఎండ్ ఎన్క్రిప్షన్ను విచ్ఛిన్నం చేస్తుందా?
- దుర్వినియోగ గృహాల్లోని పిల్లలు సహాయం కోరకుండా ఈ ఫీచర్ నిరోధిస్తుందా?
- పిల్లలను హెచ్చరించకుండా మరియు ఎంపిక ఇవ్వకుండా తల్లిదండ్రులకు తెలియజేయబడుతుందా?
- దీని అర్థం ఆపిల్ నాలో నిల్వ చేయబడిన అన్ని ఫోటోలను స్కాన్ చేయబోతోంది ఐఫోన్ ?
- ఇది CSAM చిత్రాలను నా iPhoneకి డౌన్లోడ్ చేస్తుందా? నా ఫోటోలతో పోల్చాలా?
- ఆపిల్ ఇప్పుడు ఎందుకు ఇలా చేస్తోంది?
- CSAM డిటెక్షన్ సిస్టమ్ iCloud ఫోటోలు CSAM కాకుండా ఇతర విషయాలను గుర్తించేందుకు ఉపయోగించాలా?
- CSAM కాని చిత్రాలను హాష్ జాబితాకు జోడించమని ప్రభుత్వాలు Appleని బలవంతం చేయగలవా?
- CSAM కాకుండా ఇతర విషయాల కోసం ఖాతాలను ఫ్లాగ్ చేయడానికి CSAM కాని చిత్రాలను సిస్టమ్లోకి 'ఇంజెక్ట్' చేయవచ్చా?
- ఐక్లౌడ్ ఫోటోలులో CSAM డిటెక్షన్ అవుతుందా? అమాయక ప్రజలను చట్ట అమలుకు తప్పుడు జెండా?
ఆసక్తి గల పాఠకులు ఈ ప్రశ్నలకు Apple పూర్తి ప్రతిస్పందనల కోసం పత్రాన్ని సంప్రదించాలి. ఏది ఏమైనప్పటికీ, బైనరీ అవును/కాదుతో ప్రతిస్పందించగల ప్రశ్నలకు, Apple 'సెక్యూరిటీ ఫర్ CSAM డిటెక్షన్ కోసం iCloud ఫోటోలు:'
CSAM కాకుండా ఇతర విషయాలను గుర్తించడానికి iCloud ఫోటోలలోని CSAM గుర్తింపు వ్యవస్థను ఉపయోగించవచ్చా?
అలా జరగకుండా నిరోధించడానికి మా ప్రక్రియ రూపొందించబడింది. iCloud ఫోటోల కోసం CSAM డిటెక్షన్ నిర్మించబడింది, తద్వారా సిస్టమ్ NCMEC మరియు ఇతర పిల్లల భద్రతా సంస్థలు అందించిన CSAM ఇమేజ్ హ్యాష్లతో మాత్రమే పని చేస్తుంది. ఈ ఇమేజ్ హ్యాష్ల సెట్ చైల్డ్ సేఫ్టీ ఆర్గనైజేషన్ల ద్వారా పొందిన మరియు CSAMగా ధృవీకరించబడిన చిత్రాలపై ఆధారపడి ఉంటుంది. చట్ట అమలుకు స్వయంచాలక రిపోర్టింగ్ లేదు మరియు NCMECకి నివేదిక చేయడానికి ముందు Apple మానవ సమీక్షను నిర్వహిస్తుంది. ఫలితంగా, సిస్టమ్ iCloud ఫోటోలలో CSAM తెలిసిన ఫోటోలను నివేదించడానికి మాత్రమే రూపొందించబడింది. యునైటెడ్ స్టేట్స్తో సహా చాలా దేశాల్లో, కేవలం ఈ చిత్రాలను కలిగి ఉండటం నేరం మరియు మేము తెలుసుకున్న ఏవైనా సందర్భాలను సంబంధిత అధికారులకు నివేదించడానికి Apple బాధ్యత వహిస్తుంది.CSAM కాని చిత్రాలను హాష్ జాబితాకు జోడించమని ప్రభుత్వాలు Appleని బలవంతం చేయగలవా?
ఆపిల్ అటువంటి డిమాండ్లను నిరాకరిస్తుంది. Apple యొక్క CSAM గుర్తింపు సామర్థ్యం NCMEC మరియు ఇతర పిల్లల భద్రతా సమూహాలలో నిపుణులచే గుర్తించబడిన iCloud ఫోటోలలో నిల్వ చేయబడిన తెలిసిన CSAM చిత్రాలను గుర్తించడానికి మాత్రమే నిర్మించబడింది. వినియోగదారుల గోప్యతను కించపరిచే ప్రభుత్వం నిర్దేశించిన మార్పులను రూపొందించడానికి మరియు అమలు చేయడానికి మేము ఇంతకు ముందు డిమాండ్లను ఎదుర్కొన్నాము మరియు ఆ డిమాండ్లను స్థిరంగా తిరస్కరించాము. మేము భవిష్యత్తులో వాటిని తిరస్కరించడం కొనసాగిస్తాము. ఐక్లౌడ్లో నిల్వ చేయబడిన CSAMని గుర్తించడానికి ఈ సాంకేతికత పరిమితం చేయబడింది మరియు దీన్ని విస్తరించాలనే ఏ ప్రభుత్వ అభ్యర్థనను మేము అంగీకరించము. ఇంకా, NCMECకి నివేదికను రూపొందించే ముందు Apple మానవ సమీక్షను నిర్వహిస్తుంది. తెలిసిన CSAM చిత్రాలతో సరిపోలని ఫోటోలను సిస్టమ్ ఫ్లాగ్ చేసిన సందర్భంలో, ఖాతా నిలిపివేయబడదు మరియు NCMECకి ఎటువంటి నివేదిక దాఖలు చేయబడదు.CSAM కాకుండా ఇతర విషయాల కోసం ఖాతాలను ఫ్లాగ్ చేయడానికి CSAM కాని చిత్రాలను సిస్టమ్లోకి 'ఇంజెక్ట్' చేయవచ్చా?
అలా జరగకుండా నిరోధించడానికి మా ప్రక్రియ రూపొందించబడింది. మ్యాచింగ్ కోసం ఉపయోగించిన ఇమేజ్ హ్యాష్ల సెట్ పిల్లల భద్రతా సంస్థలచే పొందబడిన మరియు ధృవీకరించబడిన CSAM యొక్క ఇప్పటికే ఉన్న చిత్రాల నుండి తెలిసినవి. తెలిసిన CSAM ఇమేజ్ హ్యాష్ల సెట్కి Apple జోడించదు. ప్రతి iPhone మరియు iPad వినియోగదారు యొక్క ఆపరేటింగ్ సిస్టమ్లో ఒకే రకమైన హ్యాష్లు నిల్వ చేయబడతాయి, కాబట్టి మా డిజైన్ ప్రకారం నిర్దిష్ట వ్యక్తులపై మాత్రమే లక్ష్యంగా దాడులు చేయడం సాధ్యం కాదు. చివరగా, చట్ట అమలుకు ఆటోమేటెడ్ రిపోర్టింగ్ లేదు మరియు NCMECకి నివేదికను రూపొందించే ముందు Apple మానవ సమీక్షను నిర్వహిస్తుంది. తెలిసిన CSAM చిత్రాలతో సరిపోలని సిస్టమ్ చిత్రాలను ఫ్లాగ్ చేసే అవకాశం లేని సందర్భంలో, ఖాతా నిలిపివేయబడదు మరియు NCMECకి ఎటువంటి నివేదిక దాఖలు చేయబడదు.
విడుదలతో సాంకేతికతను అమలు చేయాలనే నిర్ణయం కోసం యాపిల్ గోప్యతా న్యాయవాదులు, భద్రతా పరిశోధకులు, క్రిప్టోగ్రఫీ నిపుణులు, విద్యావేత్తలు మరియు ఇతరుల నుండి గణనీయమైన విమర్శలను ఎదుర్కొంది. iOS 15 మరియు ఐప్యాడ్ 15 , సెప్టెంబర్లో అంచనా వేయబడింది.
దీని ఫలితంగా ఒక బహిరంగ లేఖ ఐఫోన్లను CSAM కోసం iCloud ఫోటోలులో స్కాన్ చేయాలనే Apple యొక్క ప్రణాళికను విమర్శిస్తూ మరియు పిల్లల సందేశాలలో స్పష్టమైన చిత్రాలు, వ్రాసే నాటికి 5,500 సంతకాలను పొందాయి. ఆపిల్ ఫేస్బుక్ యాజమాన్యంలోని వాట్సాప్ నుండి కూడా విమర్శలను అందుకుంది, దీని చీఫ్ విల్ క్యాత్కార్ట్ అని పిలిచాడు 'తప్పు విధానం మరియు ప్రపంచవ్యాప్తంగా ప్రజల గోప్యతకు ఎదురుదెబ్బ.' ఎపిక్ గేమ్స్ CEO టిమ్ స్వీనీ కూడా దాడి చేశారు ఆపిల్ యొక్క దృక్కోణం నుండి ఈ చర్యను చూడడానికి తాను 'కఠినంగా ప్రయత్నించాను' అని పేర్కొన్న ఈ నిర్ణయం, 'తప్పకుండా, ఇది అపరాధ భావన ఆధారంగా Apple ద్వారా ఇన్స్టాల్ చేయబడిన ప్రభుత్వ స్పైవేర్' అని నిర్ధారించారు.
'ఎంత సదుద్దేశంతో ఉన్నా, యాపిల్ దీనితో ప్రపంచం మొత్తం మీద సామూహిక నిఘాను విస్తృతం చేస్తోంది,' అన్నారు ప్రముఖ విజిల్బ్లోయర్ ఎడ్వర్డ్ స్నోడెన్, 'ఈరోజు కిడ్డీ పోర్న్ కోసం స్కాన్ చేయగలిగితే, రేపు దేనికైనా స్కాన్ చేయవచ్చు' అని అన్నారు. లాభాపేక్ష లేని ఎలక్ట్రానిక్ ఫ్రాంటియర్ ఫౌండేషన్ కూడా విమర్శించారు Apple యొక్క ప్రణాళికలు, 'పూర్తిగా డాక్యుమెంట్ చేయబడిన, జాగ్రత్తగా ఆలోచించిన మరియు ఇరుకైన స్కోప్ ఉన్న బ్యాక్డోర్ ఇప్పటికీ బ్యాక్డోర్గా ఉంది' అని పేర్కొంది.
దొంగిలించబడినప్పుడు ఐఫోన్ను ఎలా లాక్ చేయాలిటాగ్లు: Apple గోప్యత , Apple పిల్లల భద్రతా లక్షణాలు
ప్రముఖ పోస్ట్లు