Popular Posts

வெறும் போலிச் செய்திகள் அல்ல: டீப்ஃபேக்குகள் மற்றும் நம்பிக்கையின் நெருக்கடி

வெறும் போலிச் செய்திகள் அல்ல: டீப்ஃபேக்குகள் மற்றும் நம்பிக்கையின் நெருக்கடி


சமீபத்திய ஆண்டுகளில், டீப்ஃபேக்குகள் அரசியல் விவாதங்களில் ஒரு பொதுவான தலைப்பாக மாறிவிட்டன, அவை பெரும்பாலும் ஜனநாயக சமூகங்களுக்கு அடுத்த பெரிய அச்சுறுத்தலாகக் காணப்படுகின்றன, ஏனெனில் அவை தகவல் தவறான தகவலை மோசமாக்கும் திறனைக் கொண்டுள்ளன. அவர்களின் மிகவும் யதார்த்தமான தன்மை, நம்பகத்தன்மை மற்றும் உருவாக்கத்தின் எளிமை ஆகிய இரண்டிலும், புதிய மற்றும் மிகவும் பயனுள்ள தவறான தகவல்களுக்கான சக்திவாய்ந்த கருவியாகப் பயன்படுத்தப்படலாம் என்ற கவலையை எழுப்பியுள்ளது. இருப்பினும், பல வல்லுநர்கள் ஆரம்பத்தில் எதிர்பார்த்ததை விட யதார்த்தம் மிகவும் சிக்கலானதாக நிரூபிக்கப்பட்டுள்ளது. செயற்கை ஊடகங்கள் உண்மையில் அரசியல் தொடர்புக்குள் நுழைந்துள்ளன, ஆனால் அவற்றின் பயன்பாடு எளிமையான தவறான தகவல்களுக்கு அப்பாற்பட்டது. டீப்ஃபேக்குகள் அச்சுறுத்தல் இல்லை என்று இது அர்த்தப்படுத்துவதில்லை. மாறாக, தவறான தகவல்களில் மட்டுமே கவனம் செலுத்துவது, டீப்ஃபேக்குகளால் ஏற்படும் ஆழமான, முறையான சிக்கல்களையும், இந்தத் தொழில்நுட்பம் வழங்கக்கூடிய வாய்ப்புகளையும் மறைத்துவிடும். டீப்ஃபேக்குகள், தகவல்களின் மீதான நம்பிக்கையைக் குறைத்து, புதிய அறிவைப் பெறுவதை கடினமாக்குவதன் மூலம், அறிவாற்றல் அச்சுறுத்தலாகச் செயல்படுவதன் மூலம், ஒட்டுமொத்தமாகத் தகவலை நாம் உணரும் விதத்தை மறுவடிவமைக்கும் ஆற்றலைக் கொண்டுள்ளது.

அரசியல் டீப்ஃபேக்குகளின் பரந்த தாக்கங்களை ஆராய்வதற்கு முன், டீப்ஃபேக்குகள் ஒரு அரசியல் அச்சுறுத்தலாக நிலைத்திருப்பது ஒரு ஆரம்பக் கேள்வியை எழுப்புகிறது: டீப்ஃபேக் என்றால் என்ன? இந்த வார்த்தையின் தோற்றம் கண்டுபிடிக்க எளிதானது என்றாலும், செயற்கை ஊடகம் தொடர்பாக 2017 இல் Reddit பயனரால் முதலில் பயன்படுத்தப்பட்டது. ஆழமான போலி. ஒரு டீப்ஃபேக் என எண்ணுவது காலப்போக்கில் விரிவடைந்து, பல போட்டி விளக்கங்களுக்கு வழிவகுத்தது.

அகராதி வரையறைகளின் மட்டத்தில் கூட, நுட்பமான ஆனால் முக்கியமான வேறுபாடுகள் தெளிவாகத் தெரியும். கலாச்சார வேறுபாடுகளின்படி வெவ்வேறு விளக்கங்களின் சகவாழ்வைப் பிரதிபலிக்கும் வகையில், Merriam-Webster Dictionary (அமெரிக்கன் ஆங்கிலம்) டீப்ஃபேக்கை “உண்மையில் செய்யாத அல்லது சொல்லாத ஒன்றைச் செய்ததாகவோ அல்லது தவறாகப் பேசுவதற்காகவோ கணிசமான அளவில் மாற்றப்பட்டு கையாளப்பட்ட ஒரு படம் அல்லது பதிவு” என்று வரையறுக்கிறது. , இது டீப்ஃபேக்குகளை “பல்வேறு ஊடகங்கள், குறிப்பாக டிஜிட்டல் முறையில் கையாளப்பட்ட ஒரு வீடியோ” என வரையறுக்கிறது. ஒரு நபரின் உருவத்தை இன்னொருவருக்கு மாற்றுவது, அவர்கள் செய்யாத ஒன்றைச் செய்ததாகத் தோன்றும் வகையில் தீங்கிழைக்கும் வகையில் பயன்படுத்தப்படுகிறது.

இரண்டு வரையறைகளும் டீப்ஃபேக்குகள் கருதக்கூடிய வடிவங்கள் மற்றும் பயன்பாடுகளின் வரம்பை அங்கீகரிக்கின்றன, பிந்தையது தீங்கிழைக்கும் நோக்கத்துடன் தொழில்நுட்பத்தை வெளிப்படையாக இணைப்பதன் மூலம் ஒரு நெறிமுறை பரிமாணத்தை சேர்க்கிறது. இந்த விளக்கத்தில் உள்ள வேறுபாடு, நிறுவனங்கள் மற்றும் அரசாங்கங்கள் தகவல்தொடர்புகள் மற்றும் சட்டம் மூலம் டீப்ஃபேக்குகளை நிவர்த்தி செய்யும் விதத்திலும் பிரதிபலிக்கிறது.

எடுத்துக்காட்டாக, யுனைடெட் ஸ்டேட்ஸில், டேக் இட் டவுன் சட்டம், 2025 இல் வெளியிடப்பட்டது, டீப்ஃபேக்குகளை “டிஜிட்டல் ஃபோர்ஜரி” என்று வரையறுக்கிறது, குறிப்பாக “AI அல்லது பிற தொழில்நுட்ப வழிகளைப் பயன்படுத்தி அடையாளம் காணக்கூடிய நபரின் நெருக்கமான காட்சி சித்தரிப்பு”, அடையாளம் காணக்கூடிய நபர் “முழுமையாக அல்லது தோற்றத்தில் தோன்றும் ஒருவர்” என வரையறுக்கப்படுகிறது. ஒற்றுமை, அல்லது பிற தனித்துவம் […] இது போன்ற நெருக்கமான காட்சி சித்தரிப்புகளுடன் தொடர்புடையதாக காட்டப்படுகிறது. இதேபோன்ற அணுகுமுறை 2023 இல் அறிமுகப்படுத்தப்பட்ட DEEPFAKE சட்டத்தில் பிரதிபலிக்கிறது, இது டீப்ஃபேக்குகளை “தொழில்நுட்ப தவறான ஆளுமை பதிவுகள்” என்று குறிப்பிடுகிறது. மறுபுறம், ஆன்லைனில் டீப்ஃபேக் உள்ளடக்கத்தைக் குறிக்கும் PRC இன் சமீபத்திய சட்டம், “AI-உருவாக்கப்பட்ட செயற்கை உள்ளடக்கம்”, அதன் வரையறையுடன் “உரை, படங்கள், ஆடியோ, வீடியோ, மெய்நிகர் காட்சிகள் அல்லது AI தொழில்நுட்பத்தைப் பயன்படுத்தி உருவாக்கப்பட்ட அல்லது ஒருங்கிணைக்கப்பட்ட பிற தகவல்கள்” ஆகியவற்றைக் குறிக்கிறது.

இந்த வரையறைகள், ஒரு வகையில், இரண்டு உச்சநிலைகளைக் குறிக்கின்றன: முதலாவது, உண்மையான நபர்களின் ஆள்மாறாட்டம் மற்றும் தீங்கிழைக்கும் நோக்கத்தை மையமாகக் கொண்டு, ஆழமான போலிகளின் குறுகிய பார்வையை எடுக்கிறது, அதே சமயம், சம்பந்தப்பட்ட விஷயத்தைப் பொருட்படுத்தாமல் அல்லது அவற்றின் உருவாக்கம் மற்றும் பகிர்வுக்குப் பின்னால் உள்ள நோக்கத்தைப் பொருட்படுத்தாமல், AI-உருவாக்கிய ஊடகத்தின் கிட்டத்தட்ட அனைத்து வடிவங்களையும் உள்ளடக்கியது. முக்கியமாக, வெவ்வேறு வரையறைகள் சட்டத்தின் வெவ்வேறு நடைமுறைகளுக்கு வழிவகுக்கும். குறிப்பாக, சட்ட வரையறையின் பரந்த தன்மை கட்டுப்படுத்தப்பட வேண்டிய உள்ளடக்கத்தின் அளவை தீர்மானிக்கிறது.

இந்த வரையறை வேறுபாடு ஐரோப்பா முழுவதும் தெளிவாகக் காணப்படுவது சுவாரஸ்யமானது. எடுத்துக்காட்டாக, AI சட்டத்தில் டீப்ஃபேக்குகளை EU வரையறுக்கிறது, “AI-உருவாக்கப்பட்ட அல்லது கையாளப்பட்ட படம், ஆடியோ அல்லது வீடியோ உள்ளடக்கம், ஏற்கனவே உள்ள நபர்கள், பொருள்கள், இடங்கள், நிறுவனங்கள் அல்லது நிகழ்வுகளை நெருக்கமாக ஒத்திருக்கும் மற்றும் ஒரு நபருக்கு உண்மையானதாகவோ அல்லது உண்மையாகவோ தோன்றும்”, அதே நேரத்தில் UK இன் அணுகுமுறை மிகவும் நுணுக்கமான பதிப்பை ஒத்திருக்கிறது. நோக்கம் தீங்கிழைக்கும் என்பதை அவசியம் அங்கீகரிக்க வேண்டும். இது சம்பந்தமாக, கல்வி இலக்கியங்கள் அரசியல் துறையில் டீப்ஃபேக் தொழில்நுட்பத்தின் இரட்டைப் பயன்பாட்டுத் தன்மையை அதிகளவில் ஒப்புக்கொண்டுள்ளன, இதில் தவறான தகவல் மட்டுமல்ல, அரசியல் வெளிப்பாட்டின் வடிவங்களும் நையாண்டி அல்லது பேச்சு சுதந்திரமாக பாதுகாக்கப்படுகின்றன. அதன்படி, இந்த பகுதியில், டீப்ஃபேக்குகளின் விரிவான விளக்கத்தை நாங்கள் ஏற்றுக்கொள்கிறோம், இது ஒரு தகவலறிந்த, ஆனால் இறுதியில் பக்கச்சார்பான தேர்வு என்பதை ஒப்புக்கொள்கிறோம்.

தீங்கிழைக்கும் நடைமுறைகளின் குறுகிய தொகுப்பிற்கு மட்டுப்படுத்தப்படுவதற்குப் பதிலாக, பல்வேறு அரசியல் சூழல்களில் ஆழமான போலிகள் அதிகளவில் பயன்படுத்தப்படுகின்றன, சில சமயங்களில் அவற்றின் முக்கிய நோக்கம் தவறான தகவல் என்ற கருத்தை சவால் செய்யும் வழிகளில். சமீபத்திய ஆண்டுகளில், குறிப்பாக AI தொழில்நுட்பங்கள் பிரபலமடைந்து எளிதாக அணுகப்பட்ட பிறகு, தேர்தல் செயல்முறைகளுக்கு உள்ளேயும் வெளியேயும் அரசியல் நோக்கங்களுக்காக டீப்ஃபேக்குகள் பயன்படுத்தப்பட்டதற்கான பல எடுத்துக்காட்டுகள் உள்ளன. 2024 தேர்தல் சுழற்சி பல குறிப்பிடத்தக்க உதாரணங்களை வழங்குகிறது. இந்தியாவின் தேசியத் தேர்தலில், பாலிவுட் நட்சத்திரங்கள் சம்பந்தப்பட்ட மோசடிகளை இட்டுக்கட்டி தவறான தகவல்களை உருவாக்க டீப்ஃபேக்குகள் பயன்படுத்தப்பட்டன. இதேபோல், 2024 அமெரிக்க ஜனாதிபதித் தேர்தல்களில், ஜனாதிபதி டிரம்ப் தனது ஜனநாயகக் கட்சியை இழிவுபடுத்த AI- உருவாக்கிய படங்களைப் பயன்படுத்தினார். போரின் போது டீப்ஃபேக் தவறான தகவல்களுக்கு ஒரு பிரபலமான உதாரணம் உக்ரேனிய ஜனாதிபதி வோலோடிமிர் ஜெலென்ஸ்கியின் ஆரம்ப டீப்ஃபேக் வீடியோ, உக்ரைனின் சரணடைதலைக் கோருகிறது, இது போர்க்கால பிரச்சாரமாக ஒளிபரப்பப்பட்டது.

அதே நேரத்தில், தொழில்நுட்பத்தின் நேர்மறையான பயன்பாடுகளையும் நாம் காணலாம். எடுத்துக்காட்டாக, 2024 இந்தியத் தேர்தல்களின் போது, ​​அரசியல்வாதிகள் டீப்ஃபேக் தொழில்நுட்பத்தைப் பயன்படுத்தி, பலதரப்பட்ட பார்வையாளர்களுடன் இணைவதற்கு வெவ்வேறு மொழிகளில் பேசும் வீடியோக்களை உருவாக்கி தங்கள் செய்தியின் வரம்பை விரிவுபடுத்தினர். வேட்பாளர்களின் பொது உருவங்களை மேம்படுத்தவும், வேட்பாளர் டி.ஜே. டிரம்ப்பை ஆதரிக்கும் பொது நபர்களை (மற்றும் அவர்களது ரசிகர்கள்) ஆள்மாறாட்டம் செய்வது போன்ற அவர்களின் வாக்களிப்பு தளங்களுடன் மிகவும் திறம்பட தொடர்பு கொள்ளவும் கடந்த அமெரிக்க தேர்தல்களின் போது டீப்ஃபேக்குகள் பயன்படுத்தப்பட்டன. இறுதியாக, மோதல் மண்டலங்களில், AI-உருவாக்கிய செயற்கை ஊடகம், சமூக ஊடக தளங்களின் கொள்கைகளால் தணிக்கை செய்யப்படும் கதைகள் மற்றும் தொடர்புடைய உள்ளடக்கத்தைப் பரப்புவதற்குப் பயன்படுத்தப்படலாம், காசா தொடர்பான செயல்பாட்டின் விஷயத்தில் விளக்கப்பட்டுள்ளது, போர் மண்டலத்தில் நிகழும் உண்மைகளின் கிராஃபிக் சித்தரிப்புகள் பெரும்பாலும் தளங்களால் மிகவும் வெளிப்படையாகத் தடுக்கப்படுகின்றன.

ஒரு தசாப்தத்திற்கும் குறைவான எதிர்பார்ப்புகளுடன் ஒப்பிடுகையில், டீப்ஃபேக் உருவாக்கும் கருவிகளின் அதிகரித்த அணுகல் மற்றும் பல்துறை திறன் இந்த தொழில்நுட்பத்தின் சாத்தியமான பயன்பாடுகளை வியத்தகு முறையில் விரிவுபடுத்தியுள்ளது. இந்த வளர்ச்சி தவறான தகவல் போன்ற தீங்கிழைக்கும் பயன்பாடுகளை நிறுத்தவில்லை என்றாலும், இது அணுகலை அதிகரிப்பதில் கவனம் செலுத்தவும், உணர்திறன் வாய்ந்த அரசியல் பிரச்சினைகளில் உணரப்பட்ட தணிக்கையைத் தவிர்க்கவும் அனுமதித்துள்ளது. ஆயினும், ஆழமான போலிகள் இயல்பாகவே தவறான தகவல் அல்லது தீங்கிழைக்கும் தன்மை கொண்டவை அல்ல என்பதை ஒப்புக்கொண்டு, இந்த வகையான உள்ளடக்கத்தை பரவலாகப் பரப்புவது இறுதியில் தகவல் சூழலுக்கு நல்லதா?

டீப்ஃபேக்குகள் பெரும்பாலும் தற்போதுள்ள தவறான தகவல் நடைமுறைகளின் புதிய, தனித்துவமான மற்றும் மிகவும் ஆபத்தான பரிணாம வளர்ச்சியாக வழங்கப்படுகின்றன. பார்வையாளர்களை தவறாக வழிநடத்தும் தெளிவான நோக்கத்துடன் பகிரப்படும் நபர்கள், இடங்கள் அல்லது நிகழ்வுகளை சித்தரிக்கும் மிகவும் யதார்த்தமான உள்ளடக்கத்தை டீப்ஃபேக்குகள் பரப்ப உதவுகின்றன என்ற உண்மையை அடிப்படையாகக் கொண்டது இந்த வாதம். “பார்ப்பது நம்புவது” என்று சுருக்கமாகக் கூறப்படும் ஒரு அறிவாற்றல் குறுக்குவழி, ரியலிசம் ஹூரிஸ்டிக் என வரையறுக்கப்பட்டதைப் பொறுத்து ஆழமான தவறான தகவல்களின் சாத்தியக்கூறுகள் சார்ந்துள்ளது என்ற கருத்தில் இருந்து இந்த கவலை முதன்மையாக உருவாகிறது. இந்தக் கண்ணோட்டத்தில், டீப்ஃபேக் தொழில்நுட்பம் ஒருபோதும் நிகழாத நிகழ்வுகளின் வெளிப்படையான காட்சி ஆதாரங்களை உருவாக்குவதன் மூலம் தவறான தகவலை ஊக்குவிக்கிறது. ஆன்லைன் அமைப்புகளில், குறிப்பாக சமூக ஊடக தளங்களில், பயனர்கள் அரிதாகவே தகவலை கவனமாக செயலாக்குகிறார்கள், மாறாக காட்சி யதார்த்தம் போன்ற ஹூரிஸ்டிக் குறிப்புகளை நம்பியிருக்கிறார்கள். இதன் விளைவாக, ஆழமான போலி அடிப்படையிலான தவறான தகவல் குறிப்பாக தவறான தகவலாகக் காணப்படுகிறது.

இந்த வாதம் கோட்பாட்டளவில் சரியானதாக இருந்தாலும், சமீபத்திய அனுபவ ஆய்வுகள் இந்தக் கதையை சிக்கலாக்கத் தொடங்கியுள்ளன. இந்த கண்டுபிடிப்புகள் பல்வேறு வடிவங்களில் (உதாரணமாக, படம், வீடியோ அல்லது ஆடியோ) டீப்ஃபேக்குகள் உண்மையில் சீர்குலைக்கும் என்றாலும், மற்ற, ஆழமான போலியான தவறான தகவல்களை விட (உதாரணமாக, எழுதப்பட்ட செய்திகள், சூழலுக்கு அப்பாற்பட்ட படங்கள்) பார்வையாளர்களை தவறாக வழிநடத்துவதில் அவை மிகவும் பயனுள்ளதாக இருக்க வேண்டிய அவசியமில்லை.

டீப்ஃபேக்குகளால் ஏற்படும் அபாயங்களைப் பற்றிய இரண்டாவது கருதுகோள், அவற்றை தனிமைப்படுத்தப்பட்ட தவறான தகவல்களாகப் பார்ப்பதில் இருந்து, முறையான விளைவுகளை ஏற்படுத்தும் திறன் கொண்ட தொழில்நுட்பமாக அவற்றைப் பார்க்கிறது. யதார்த்தவாதத்தை சிதைக்கும் திறன் காரணமாக, குடிமக்கள் ஒட்டுமொத்த தகவலின் நம்பகத்தன்மையை மதிப்பிடும் அடிப்படையை ஆழமான போலிகள் குறைமதிப்பிற்கு உட்படுத்தும். இந்த காரணத்திற்காக, ஃபாலிஸ் டீப்ஃபேக்குகளை ஒரு அறிவாற்றல் அச்சுறுத்தல் என்று விவரித்தார்: எதையும் எளிதில் புனையக்கூடிய உலகில் – காட்சி சான்றுகள் உட்பட, பாரம்பரியமாக மிகவும் நம்பகமான ஆதாரங்களில் ஒன்றாக இது பார்க்கப்படுகிறது, ஏனெனில் இது நேரடியான தனிப்பட்ட அவதானிப்புகளை நெருக்கமாக பிரதிபலிக்கிறது – உலகத்தைப் பற்றிய புதிய அறிவைப் பெறுவதற்கான மக்களின் திறன் கணிசமாகக் குறைக்கப்படுகிறது. காட்சி ஆதாரமே கேள்விக்குரியதாக மாறினால், தகவலை நம்புவதற்கான அடிப்படையே பாதிக்கப்படும்.

சமூக ஊடக தளங்களில் பயன்படுத்தப்படும் போது, ​​இந்த அறிவாற்றல் பாதிப்பு உண்மையான செய்திகளில் ஆழமான போலிகளின் “ஸ்பில்ஓவர் விளைவு” என வெளிப்படுகிறது. வேறு வார்த்தைகளில் கூறுவதானால், டீப்ஃபேக்குகள் உள்ளன என்ற விழிப்புணர்வு மட்டுமே கையாளப்பட்ட உள்ளடக்கத்தில் மட்டுமல்ல, உண்மையான தகவல்களிலும் நம்பிக்கையைக் குறைக்கும். பூர்வாங்க ஆராய்ச்சி இந்த யோசனையை ஆதரிப்பதாக தோன்றுகிறது: பங்கேற்பாளர்கள் செயற்கை அல்லாத செய்திகளை மதிப்பிடும்போது கூட, ஆழமான போலி உள்ளடக்கத்தை வெளிப்படுத்துவது நம்பிக்கையின் அளவையும் உணரப்பட்ட செய்தி நம்பகத்தன்மையையும் குறைக்கிறது என்பதை சோதனை மற்றும் கள ஆய்வுகள் கண்டறிந்துள்ளன.

இறுதியாக, டீப்ஃபேக்குகள் அரசியல் துருவமுனைப்பை அதிகரிக்கலாம் அல்லது தீவிரமயமாக்கலுக்கு வழிவகுக்கலாம்: “பார்ப்பது இனி நம்பவில்லை” என்றால், காட்சி ஆதாரங்கள் போலியாக உருவாக்கப்படலாம், பின்னர் டீப்ஃபேக்குகள் மக்களின் தற்போதைய நம்பிக்கைகளுடன் பொருந்தக்கூடிய தகவல்களைத் தேர்ந்தெடுத்து ஏற்றுக்கொள்ள எளிதான சாக்குப்போக்குகளாக மாறும். ஆன்லைன் பயனர்கள் தங்கள் முந்தைய அணுகுமுறைகளை உறுதிப்படுத்தும் உள்ளடக்கத்தை விரும்புகிறார்கள் என்று ஆராய்ச்சி ஏற்கனவே காட்டுகிறது; இந்தச் சூழலில், டீப்ஃபேக் தொழில்நுட்பமானது, இந்த நம்பிக்கைகளை வலுப்படுத்தும் வகையில் வடிவமைக்கப்பட்ட உள்ளடக்கத்தை உருவாக்க உதவும், அதேசமயம் பயனர்கள் எதிர்த் தகவல்களை போலியான அல்லது AI-உருவாக்கியதாக நிராகரிக்க அனுமதிக்கிறது.

டீப்ஃபேக்குகளின் மிகப்பெரிய அச்சுறுத்தல், மேலும் நம்பத்தகுந்த தவறான தகவல்களை உருவாக்கும் திறன் மட்டுமல்ல, தகவல் மீதான நமது நம்பிக்கையை முற்றிலுமாக சிதைக்கும் திறனும் ஆகும். நம்பிக்கையை சேதப்படுத்துவதன் மூலம், ஆழமான போலிகள் சந்தேகம், துருவமுனைப்பு மற்றும் தேர்ந்தெடுக்கப்பட்ட நம்பிக்கையை அதிகரிக்கும். அதே நேரத்தில், டீப்ஃபேக்குகளின் பெருக்கம் நமது சமூகத்தில் இருக்கும் பாதிப்புகளை எடுத்துக்காட்டுகிறது. சமீபத்திய தசாப்தங்களில் பாரம்பரிய நிறுவனங்கள் மீதான நம்பிக்கையுடன் ஊடக நம்பகத்தன்மையில் நிலையான சரிவு ஏற்பட்டுள்ளது. டீப்ஃபேக் பெருக்கம், AI உருவாக்கும் முன்பே, தகவலைச் சரிபார்ப்பது எப்போதும் நேரடியானதாக இல்லை என்பதை மறந்துவிடக் கூடாது; நம்பகத்தன்மை பெரும்பாலும் மூலத்தின் உணரப்பட்ட செல்லுபடியாகும் தன்மையைப் பொறுத்தது. இந்த சூழலில், இந்த அடிப்படை சிக்கல்களை அங்கீகரிப்பதன் மூலம், டீப்ஃபேக்குகளின் சவால்கள் அவற்றின் வீழ்ச்சியை விரைவுபடுத்துவதற்குப் பதிலாக, தகவலின் சட்டபூர்வமான தன்மையையும் நம்பிக்கையையும் மீட்டெடுக்க ஒரு ஊக்கியாக செயல்படும்.

மின்-சர்வதேச உறவுகள் பற்றிய கூடுதல் வாசிப்பு

Leave a Reply

Your email address will not be published. Required fields are marked *