Deepfake | பயமுறுத்தும் தொழில்நுட்பம்

2
Deepfake technology

Deepfake காணொளிகள் இந்தியா முழுக்க சர்ச்சையை ஏற்படுத்தியுள்ளது.

Deepfake

ஒருவரின் முகத்தை செயற்கை நுண்ணறிவு தொழில்நுட்பம் மூலம் போலியாக மாற்றும் தொழில்நுட்பம் Deepfake என்று அழைக்கப்படுகிறது. Image Credit

முன்பு Photoshop தொழில்நுட்பத்தால் இது போலச் செய்யப்பட்டது ஆனால், அதை விடப் பல மடங்கு துல்லியமாகச் செயற்கை நுண்ணறிவின் மூலம் செய்ய முடியும்.

எனவே தான் இதன் மூலம் வரும், நிழற்படங்கள், காணொளிகள் உண்மையானது போலவே உள்ளது.

எப்படி உருவாக்குகிறார்கள்?

எப்படி Photoshop தொழில்நுட்பத்தில் மாற்றுகிறார்களோ அதே போல, Deepfake லும் செய்யப்படுகிறது. Photoshop சாதாரணமானது ஆனால், Deepfake செயற்கை நுண்ணறிவுடன் உருவாக்கப்படுவது.

செயற்கை நுண்ணறிவு (Artificial Intelligence) எப்படி வித்தியாசப்படுகிறது என்றால், கிடைக்கும் ஏராளமான தகவல்களை வைத்தே.

பிரபலங்களின் நிழற்படங்கள், காணொளிகள் இணையத்தில் கொட்டிக்கிடப்பதால், அவற்றை அடிப்படையாக வைத்து உருவாக்கப்படுகிறது.

எந்த ஒரு உணர்வுக்கும் காணொளிகள், நிழற்படங்கள் இருப்பதால், அவற்றை வைத்துத் துல்லியமாக முகத்தை, உணர்வுகளைக் கொண்டுவர முடிகிறது.

இதன் அடிப்படையிலேயே ட்ரம்ப், ராஷ்மிகா காணொளிகள் வைரலானது.

ஒருவருடைய நிழற்படங்கள், காணொளிகள் அதிகம் கிடைக்கிறது என்றால், இது போன்ற Deepfake காணொளிகளைத் துல்லியமாக உருவாக்க முடியும்.

Deepfake காணொளிகளில் வரும் கண்கள் சிமிட்டாது என்பதை வைத்துப் போலி என்று அடையாளம் காணலாம் ஆனால், எதிர்காலத்தில் இதையும் வளரும் தொழில்நுட்பத்தில் சரி செய்து விடுவார்கள்.

ஆபத்து நிறைந்தது

யாருக்கோ நடந்தது என்று எளிதாகக் கடக்க முடியாது காரணம், நமக்கே, நம் குடும்பத்தினருக்கே இது போன்று நடக்க ஏராளமான வாய்ப்புகள்.

தங்களுக்குப் பிடிக்காத ஒரு நபரை இத்தொழில்நுட்பம் மூலம் எளிதாக அவமானப்படுத்திவிட முடியும். இது உண்மையா பொய்யா என்று உணர்வதற்குள் போதுமான சேதம் ஆகியிருக்கும்.

இது நானில்லை என்று விளக்கம் கொடுத்து அது மற்றவர்களைச் சென்றடைவதற்குள் பொய் வேகமாக அனைவரிடையே சென்றடைந்து இருக்கும்.

தற்காலத்தில் ஆண்களும், பெண்களும் குறிப்பாகப் பெண்கள் Reels, இன்ஸ்டாகிராம், Shorts போன்றவற்றில் எல்லை மீறிய காணொளிகளைப் பகிர்ந்து வருகிறார்கள்.

இதை வைத்து எளிதாக Deepfake செய்து விட முடியும்.

இவர்கள் அல்லாமல், லைக்ஸ் ஆர்வத்துக்காக தங்கள் நிழற்படங்களை, காணொளிகளை ஏராளமாகச் சமூகத்தளங்களில் பகிரும் பெண்கள் மிக எச்சரிக்கையாக இருக்க வேண்டிய தருணம்.

இவர்கள் சொல்லித் திருந்த மாட்டார்கள் காரணம், லைக்ஸ் போதைக்கு அடிமையாகி விட்டார்கள். எனவே, பட்டுத்திருந்தினால் தான் உண்டு.

திரைப்பட காட்சிகளை மீண்டும் எடுக்காமல், செலவைக் குறைத்து வேறு மொழிகளில் கொண்டு வரப் பயன்பட்ட தொழில்நுட்பம் தற்போது மற்றவர்களின் தனிப்பட்ட வாழக்கையில் விளையாடி வருகிறது.

குரல் மாற்றம்

முகம் மட்டுமல்லாது குரலையும் Deepfake மூலம் மாற்றம் செய்ய முடியும்.

முருகன் பாடலை மோடி பாடுவது உட்படப் பல பாடல்கள் இன்ஸ்டாகிராமில் ட்ரெண்டிங்காக இருந்தது. மோடி பேசுவது, பாடுவது போலவே இருந்தது.

மோடி தமிழ் பேசினால் எப்படிப் பேசுவாரோ அதே போல உருவாக்கப்பட்டு இருந்தது.

இவையெல்லாம் மீம்ஸாக வந்து நகைச்சுவையாக இருந்தாலும், இதே முறையில் மொபைலில் போலி முகம், குரல் மூலம் ஏமாற்றுவதும் நடைபெறுகிறது.

அதாவது, உங்களுக்குத் தெரிந்த நபர் போல Video Call ல் வந்து அவசரமாகப் பணம் தேவைப்படுவதாகக் கூறினால், ஏமாந்து கொடுத்து விட வாய்ப்பாகியுள்ளது.

எனவே, யாரை, எதை நம்புவது என்றே தெரியவில்லை.

தவிர்க்க முடியாதது

வளரும் தொழில்நுட்பம் பல நன்மைகளை, வசதிகளைக் கொண்டு வந்தாலும், இது போன்ற ஆபத்துகளையும், சிக்கல்களையும் உடன் கொண்டு வருகிறது.

எனவே, இவையெல்லாம் தவிர்க்க முடியாத பிரச்சனைகள். எச்சரிக்கையாக இருப்பதைத் தவிர வேறு வாய்ப்புக் கிடையாது.

தவறு செய்தவர்களும் கூட Deepfake என்று கூறி தப்பித்து விட வாய்ப்புள்ளது குறிப்பாக அரசியல்வாதிகள்.

பிடிக்கிறதோ இல்லையோ, எதிர்காலத்தில் இப்பிரச்சனைகளைக் கடந்து செல்லாமல் ஒதுங்க முடியாது. எச்சரிக்கை மட்டுமே ஒரே வழி.

🛑 To get Finance, Train, Food, UPI, OTT updates, Memes, Tech News, Online Offers follow –> giriblog WhatsApp Channel (WhatsApp Blog ⭐).

2 COMMENTS

  1. கிரி, இணைய உலகில் கடந்த 10 / 15 ஆண்டுகளுக்கு முன்பு இருந்த சூழல் தற்போது வேறு மாதிரி இருக்கிறது. சில சமயம் இது எதுவுமே இல்லாமல் இருந்த போது.. எல்லாம் சரியாக இருந்தது போல ஒரு உள் உணர்வு எப்போதும் தோன்றும். நாட்கள் செல்ல, செல்ல தொழில்நுட்ப வளர்ச்சி வேகமாக வளர்ந்து கொண்டிருப்பதை பார்க்கும் போது அடுத்த தலைமுறை, இதை எவ்வாறு சரியாக கையாளுவார்கள் என்று தெரியவில்லை. இதை இவர்களுக்கு உணர்த்தும் பொறுப்பு பெற்றோர்களுக்கு நிச்சயம் உண்டு.

    இந்த வளர்ச்சி சரியா? தவறா? என்று ஆராய முடியாது. காரணம் நாம் இவற்றுடன் தான் இந்த சமூகத்தில் வாழ வேண்டிய சூழலுக்கு தள்ளப்பட்டுளோம். அதனால் இதனை எவ்வாறு கவனமாக பயன்படுத்த வேண்டும் என்பதில் கூடுதல் கவனம் எடுக்க வேண்டும். குறிப்பாக இளைய தலைமுறையினர்க்கு இதை பற்றிய அறிவுருத்தல் மிக மிக அவசியம்.

    என் பார்வையில் சமூக ஊடகங்களின் சதியினால் ஆரம்பத்தில் மிகவும் பாதிக்கப்பட்டது விஜயகாந்த் சார் தான்.. மிக சிறந்த மனிதரை இந்த சமூக ஊடகங்களின் உதவியுடன் அவரின் மரியாதையை முற்றிலும் சிதைத்தனர். 200 க்கும் மேற்பட்ட தனி மனிதர்களின் நேர்காணல்களை கேட்டு இருப்பேன், ஒருவர் கூட விஜயகாந்த் அவர்களை குறித்து ஒரு சின்ன தவறை செய்தர் என்று யார் சொல்லியும் நான் இது வரை கேட்டதில்லை.. மிக சிறந்த மனிதரை இந்த ஊடகம் தவறாக சித்தரித்தது.

  2. @யாசின்

    “நாட்கள் செல்ல, செல்ல தொழில்நுட்ப வளர்ச்சி வேகமாக வளர்ந்து கொண்டிருப்பதை பார்க்கும் போது அடுத்த தலைமுறை, இதை எவ்வாறு சரியாக கையாளுவார்கள் என்று தெரியவில்லை.”

    கால மாற்றத்தில் இவை தவிர்க்க முடியாதவை. அதற்கு தகுந்த மாதிரிச் சூழ்நிலைகள் மாறும், மக்களும் மாற்றிக்கொள்ள வேண்டும்.

    “குறிப்பாக இளைய தலைமுறையினர்க்கு இதை பற்றிய அறிவுருத்தல் மிக மிக அவசியம்.”

    வரவேற்கிறேன்.

    “என் பார்வையில் சமூக ஊடகங்களின் சதியினால் ஆரம்பத்தில் மிகவும் பாதிக்கப்பட்டது விஜயகாந்த் சார் தான்.. மிக சிறந்த மனிதரை இந்த சமூக ஊடகங்களின் உதவியுடன் அவரின் மரியாதையை முற்றிலும் சிதைத்தனர்.”

    மிகச்சரி.

    கேப்டன் வளர்ச்சியைத் தடுக்க அவரைக் கோமாளி போலச் சித்தரித்தனர். அதற்கு எடுத்துக் கொடுப்பது போல அவரின் சில நடவடிக்கைகள், கோபம் அதை மேலும் வளர்த்து விட்டது.

    கேப்டன் உஷாராகி இருந்தால், தவிர்த்து இருக்கலாம்.

    தலைவரையும் இதே போல மாற்ற முயன்றனர் ஆனால், அவர் உஷாராகி விட்டார். அண்ணாமலையும் துவக்கத்தில் சிக்கினார் ஆனால், சுதாரித்து விட்டார்.

    “ஒருவர் கூட விஜயகாந்த் அவர்களை குறித்து ஒரு சின்ன தவறை செய்தர் என்று யார் சொல்லியும் நான் இது வரை கேட்டதில்லை.. மிக சிறந்த மனிதரை இந்த ஊடகம் தவறாக சித்தரித்தது.”

    அதற்கு அவருடைய கோபமும், அவசரமும் ஒரு காரணம்.

LEAVE A REPLY

Please enter your comment!
Please enter your name here