సాంకేతిక విజ్ఞానం కొత్తపుంతలు తొక్కుతున్న కొద్దీ.. సరికొత్త ప్రమాదాలు మానవాళిని వెంటాడుతున్నాయి. ఇప్పటికే సైబర్ నేరాల విస్తృతి పెరిగిపోయింది. దీనికి కృత్రిమ మేధ (ఆర్టిఫీషియల్ ఇంటెలిజెన్స్) మరింత ఆజ్యం పోస్తోంది. ఈ కృత్రిమ మేధను ఉపయోగించి వికృత కార్యాలకు పాల్పడుతున్న సంఘటనలు అనేకం. అసలేదో… నకిలీయేదో తేడా తెలియనంతగా నకిలీ ఫొటోలు, నకిలీ వీడియోలు రూపొందిస్తున్నారు. ఒకేరకం పోలికలు గలవారి ముఖం స్థానంలో వేరే వ్యక్తుల ముఖాలను మార్పిడి చేసి మాయ చేయటం దీని ప్రత్యేకత. అవి కూడా అచ్చం అసలు వ్యక్తులకు సంబంధించినవే అనేలా భ్రమ కల్పిస్తుంది. ‘డీప్ఫేక్’గా పిలిచే ఈ తరహా మోసాలు ఇటీవలి కాలంలో విపరీతంగా పెరిగాయి. డీప్ఫేక్ మాయాజాలంతో నిండుదుస్తుల్లో వున్న ఫొటోను సైతం నగంగా మార్చేస్తున్నారు. పాతికేళ్ల వారిని అరవై ఏళ్లవారిగా, అరవైఏళ్ల వారిని పాతికేళ్ల వారిగా మార్చేస్తున్నారు. సామాజిక మాధ్యమాల్లో పోస్టు చేసే వ్యక్తిగత ఫొటోలు, వీడియోలను అసభ్యంగా మార్చేసి బ్లాక్మెయిల్ చేయడం, సెలబ్రిటీల పరువును బజారుకీడ్వడమేకాక, వారి స్నేహితులకు, కుటుంబ సభ్యులకు ఆ వ్యక్తే పంపినట్లుగా మెసేజ్లు పంపుతున్నారు. అత్యవసరంగా డబ్బులు కావాలనో, ప్రమాదంలో ఉన్నాననో, డబ్బులు పోయాయనో రకరకాల కారణాలు చెబుతుంటారు. కేరళలోని కోజికోడ్కు చెందిన రాధాకృష్ణన్కు గుర్తు తెలియని నంబర్ నుంచి వీడియో కాల్ వచ్చింది. ఆ వీడియో కాల్లో ఆంధ్రప్రదేశ్కి చెందిన తన మాజీ సహౌద్యోగి ముఖం కనిపించింది. కొలీగ్ కావడం, చాలా రోజుల తర్వాత కనిపించడంతో రాధాకృష్ణన్ కూడా మాటకలిపాడు. మాటల మధ్యలో వారి కామన్ ఫ్రెండ్స్ పేర్లు కూడా వీడియో కాల్ చేసిన వ్యక్తి ప్రస్తావించాడు. దీంతో వీడియో కాల్లో కనిపించిన వ్యక్తిని రాధాకృష్ణన్ పూర్తిగా నమ్మాడు. ఆ తర్వాత అసలు కథ మొదలైంది. ఆసుపత్రిలో తన బంధువు ఒకరు చికిత్స పొందుతున్నారని, తనకు రూ.40 వేలు అత్యవసరమని అభ్యర్థించాడు. దీంతో స్నేహితుడికి సహాయం చేయాలనే ఉద్దేశ్యంతో రాధాకృష్ణన్ ఆ డబ్బును ఆన్లైన్లో పంపాడు. కొద్దిసేపటి తర్వాత అదే వ్యక్తి మళ్లీ కాల్ చేసి మరో రూ.35 వేలు అడిగాడు. అనుమానం వచ్చిన రాధాకృష్ణన్ క్రాస్ చెక్ చేయడానికి అసలైన వ్యక్తికి ఫోన్ చేసిన తర్వాతగానీ అర్థం కాలేదు… తాను మోసపోయానని. ఇదొక తాజా ఉదాహరణ. అంతేకాదు… ఇటీవల హీరోయిన్ రష్మిక మందన్న ఫేక్ వీడియో లీక్ అయ్యింది. ఆ తర్వాత రెండ్రోజుల వ్యవధిలోనే మరో వీడియో బయటకొచ్చింది. ఇదే సమయంలో బాలీవుడ్ కత్రినాకైఫ్, సారా టెండూల్కర్కు సంబంధించిన రెండు ఫేక్ ఫొటోలు కూడా వైరల్ అయ్యాయి. ఈ నేపథ్యంలోనే దక్షిణ కొరియాలోని ఓ ప్లాంట్లో మనిషిని, కూరగాయల డబ్బాను వేరు చేసి గుర్తించడంలో విఫలమైన రోబో.. ఓ వ్యక్తిని పొట్టనబెట్టుకుంది.
డీప్ఫేక్…
మనిషిని పోలిన మనిషి వీడియో, ఫొటోలను సృష్టించటం డీప్ఫేక్ పరిజ్ఞానానికి చిటికెలో పని. ఒకేరకం పోలికలు గలవారి ముఖం స్థానంలో వేరే వ్యక్తుల ముఖాలను మార్పిడి చేసే మాయాజాలం ఇది. అసలు వ్యక్తి కూడా ఇది తనేనని భ్రమపడేంత సహజత్వాన్ని సృషించడం డీప్ఫేక్ ప్రత్యేకత. డీప్ఫేక్ ప్రోగ్రామ్ అనేది ఓ న్యూరల్ నెట్వర్క్ పోగ్రామ్. దీనికి రకరకాల ఫొటోలు, వీడియోలతో శిక్షణ ఇస్తారు. డీప్ఫేక్ పరిజ్ఞానం ఆయువు జెనరేటివ్ అడ్వర్సరియల్ నెట్వర్క్స్ (గాన్స్). ఇది రెండు ఆర్టిఫిషియల్ న్యూరల్ నెట్వర్క్స్ (ఏఎన్ఎన్) సముదాయం. ఇవి ఒకదానికి (ఫొటో, వీడియో) ఎదురుగా మరోదాన్ని నిలబెట్టి ముఖ కవళికలను నేర్చుకునేలా శిక్షణ ఇస్తాయి. ఒక దృశ్యాన్ని మరోటి డూప్లికేట్ చేసినంత సహజంగా వీడియో, ఫొటోలు సృష్టిస్తాయి. ఇవి శిక్షణ తీసుకుంటున్నకొద్దీ నైపుణ్యం సాధిస్తాయి.
ఏది నకిలీ… ఏది అసలు గుర్తించొచ్చా…
డీప్ఫేక్ పరిజ్ఞానం ఎంత తెలివిగా నకిలీ వీడియో, ఫొటోలను సృష్టించినా వాటిని గుర్తించే అవకాశం లేకపోలేదంటున్నారు పరిశీలకులు. కళ్లు, కనురెప్పల కదలికలు అసహజంగా వుండే అవకాశం వుందంటున్నారు. అలాగే ఆయా భావాలు, మాటలకు అనుగుణంగా ముఖ కవళికలు కనిపించకపోవచ్చు. అంతేకాదు… డీప్ఫేక్లో చాలావరకు పెదాల కదలికలకు, రోబో గొంతుకు పొంతన కుదరదు. డీప్ఫేక్ పరిజ్ఞానం వేర్వేరు ఫొటోలు, వీడియో క్లిప్లను జోడించి నకిలీ వీడియోలను రూపొందించే క్రమంలో లైటింగ్, షేడ్స్, బ్యాక్గ్రౌండ్ వంటివి ఒకేలా వుండే అవకాశం లేదు. ముఖం, శరీరం మీద రంగు, నీడ వంటివి కూడా తేడాగా ఉండొచ్చు. వీడియోలు నాణ్యతా లోపం వల్ల పిక్సెల్ విడిపోయినట్టు, మసక మసకగా కనిపిస్తే నకిలీ వీడియోగా అనుమానించాలి. ముఖ్యంగా ఆయా వీడియోలను ఎవరు పోస్ట్ చేశారు? వారి విశ్వసనీయత వంటి వివరాలూ నకిలీ వీడియోలను పట్టిస్తాయి. ఇవన్నీ ఇటీవల ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ ప్రముఖంగా వెలుగులోకి వచ్చిన తర్వాత జరిగిన తాజా సంఘటనలు. ఈ ఏఐ వల్ల మానవాళికి ఎంత ఉపయోగం జరుగుతుందో తెలియదు కానీ… నష్టాలు మాత్రం ఊహించని విధంగా ఉంటాయంటున్నారు పలువురు సాంకేతిక నిపుణులు. మనకు తెలియకుండానే మన సమాచారం మొత్తం సేకరించే ఏఐ… భవిష్యత్తులో మానవ ఉనికినే ప్రమాదంలో పడేస్తుందా? మరి దీన్ని నివారించేందుకు ఎలాంటి చర్యలు చేపట్టాలి అనేది చర్చనీయాంశంగా మారింది. ఈ క్రమంలో వ్యక్తిగత ఫొటోలను, వీడియోలను సోషల్ మీడియాలో పోస్టు చేయకపోవడం ఉత్తమం.