Published : 27 Nov 2020 06:47 am

Updated : 27 Nov 2020 06:47 am

 

Published : 27 Nov 2020 06:47 AM
Last Updated : 27 Nov 2020 06:47 AM

விற்பனைக்கு: போலி முகங்கள்

fake-faces

காஷ்மீர் ஹில், ஜெரெமி வைட்

போலி நபர்களை விற்கும் தொழில் நிறுவனங்கள் தற்போது உருவாகியுள்ளன. ‘தனித்துவமான, கவலையற்ற’ போலி நபரை 2.99 டாலருக்கோ, ஆயிரம் பேரை 1,000 டாலர்களுக்கோ வாங்கலாம். ஒரு வீடியோ விளையாட்டுக்காகவோ அல்லது உங்கள் நிறுவனத்தின் இணையதளம் பன்மைத்தன்மை கொண்டது என்று காட்டிக்கொள்வதற்காகவோ சில போலி நபர்கள் தேவை என்றால் அவர்களின் ஒளிப்படங்களை திஸ்பெர்ஸன்டஸ்நாட்எக்ஸிஸ்ட்.காம் (ThisPersonDoesNotExist.com) என்ற இணையதளத்தில் கட்டணமின்றிப் பெற்றுக்கொள்ளலாம். நீங்கள் விரும்பியபடி அவர்களின் தோற்றத்தை மாற்றியமைத்துக்கொள்ளலாம்; நீங்கள் விரும்பிய இனத்தவராக அவரை மாற்றிக்கொள்ளலாம். உங்களின் போலி நபரை அசைவுகொள்பவராக மாற்ற வேண்டுமென்றால் அதை ரோஸ்பட்.

ஏஐ (Rosebud.AI) என்ற நிறுவனம் செய்துதரும், அவர்களைப் பேசவும் வைக்கும்.கணினி மூலம் உருவாக்கப்பட்ட இந்த நபர்கள் இணைய உலகில் உலவ ஆரம்பித்திருக்கிறார்கள். குற்ற உள்நோக்கம் கொண்ட நிஜ மனிதர்களால் இவர்கள் பயன்படுத்தப்படுகிறார்கள். கவர்ச்சிகரமான முகத்தைப் பயன்படுத்தி நுண்ணறிவுத் துறைகளில் ஊடுருவ முயலும் உளவாளிகள், போலி தன்விவரக் குறிப்புகளுக்குப் பின்னால் ஒளிந்துகொள்ளும் வலதுசாரி பிரச்சாரகர்கள், நட்புணர்வுடன் கூடிய முகத்தைப் பொருத்திக்கொண்டு இணையத்தில் தங்கள் இலக்குகளைச் சீண்டுபவர்கள் போன்றோர்தான் இந்தப் போலி முகங்களைப் பயன்படுத்துபவர்கள்.


போலி முக உருவாக்கம்

பல்வேறுபட்ட போலி முகங்களை உருவாக்குவது எவ்வளவு எளிது என்பதைப் புரிந்துகொள்ளும் விதத்தில் எங்களுடைய ‘செயற்கை நுண்ணறிவு’ அமைப்பை உருவாக்கினோம். அந்த ‘செயற்கை நுண்ணறிவு’ அமைப்பு ஒவ்வொரு முகத்தையும் சிக்கலான கணித உருவமாகக் காண்கிறது. கண்களின் அளவையும் வடிவத்தையும் தீர்மானிப்பவை போன்ற வேறுபட்ட மதிப்புகளைத் தேர்ந்தெடுப்பதன் மூலம் ஒட்டுமொத்த படத்தையும் மாற்றியமைக்கலாம்.

இதுபோன்ற போலிப் படங்களை உருவாக்குவது சமீப காலமாகத்தான் சாத்தியமானது. இதற்கு ‘ஜெனரேட்டிவ் அட்வெர்ஸரியல் நெட்வொர்க்’ (generative adversarial network) எனும் புதிய வகை ‘செயற்கை நுண்ணறிவு’க்குத்தான் நன்றிகூற வேண்டும். அடிப்படையில், உண்மையான மக்களின் படங்கள் சிலவற்றை ஒரு கணினிக்குள் நீங்கள் இட வேண்டும். அது அவற்றை ஆய்வுசெய்து தானே நபர்களின் படங்களை உருவாக்கும்; அதன் இன்னொரு பகுதியோ இவற்றில் எவையெல்லாம் போலி என்பதைக் கண்டுபிடிக்க முயலும்.

யார் நிஜம், யார் போலிகள்?

இந்தத் தொழில்நுட்பம் அடைந்துவரும் முன்னேற்றத்தைப் பார்க்கும்போது போலி நபர்களின் தனிப் படங்களை மட்டுமல்ல, கும்பல் கும்பலான படங்களை நாம் காணும் நாள் வெகு தொலைவில் இல்லை என்றே தோன்றுகிறது. போலி நண்பர்களுடன் ஒரு கொண்டாட்ட நிகழ்வில் இருப்பதுபோன்ற படங்கள், தங்களின் போலி நாய்களுடன் போலி நபர்கள் உலவுவதுபோன்ற படங்கள், தங்கள் போலிக் குழந்தைகளைத் தூக்கிவைத்திருப்பதுபோன்ற படங்கள் இவையெல்லாம் வெள்ளமெனப் பெருகவிருக்கின்றன.
“2014-ல் இந்தத் தொழில்நுட்பம் முதலில் தோன்றியபோது சிம்ஸ் வீடியோ விளையாட்டுபோல் அது மோசமாகவே இருந்தது. எவ்வளவு வேகமாகத் தொழில்நுட்பம் மேம்பாடு அடையும் என்பதற்கான நினைவூட்டல் இது. போலியையும் உண்மையும் இனம் கண்டு பிரிப்பது போகப் போக மிகவும் கடினமாக ஆகிவிடும்” என்கிறார் போலிச் செய்திகளை ஆராய்பவரான கமிலி ஃப்ரான்ஸ்வா.

முகத்தின் முக்கியமான அம்சங்களை மிகவும் சிறப்பாக அடையாளம் காணும் வகையில் தொழில்நுட்பம் வளர்ந்ததுதான் போலி முக உருவாக்கத்தில் ஏற்பட்ட தொழில்நுட்ப முன்னேற்றங்களுக்குப் பகுதியளவு காரணம். உங்கள் முகத்தைப் பயன்படுத்தி உங்களின் திறன்பேசித் திரையைத் திறக்கலாம் அல்லது உங்களின் ஆயிரக்கணக்கான படங்களை அலசிப் பார்த்து அதை வைத்துக்கொண்டு உங்கள் குழந்தையின் படத்தைக் காட்டும்படி உங்கள் ஒளிப்பட மென்பொருளுக்கு நீங்கள் கட்டளை இடலாம். குற்ற நடவடிக்கைகளில் தொடர்புடையவர்கள் என்று சந்தேகிக்கப்படுபவர்களை அடையாளம் கண்டு கைதுசெய்வதற்கு முக அடையாளம் காட்டும் கணினி நிரல்கள் பயன்படுத்தப்படுகின்றன.

அடையாளமறிதல் தொழில்நுட்பம்

ஆனால், மற்ற ‘செயற்கை நுண்ணறிவு’ அமைப்புகளைப் போலவே ‘முக அடையாளமறிதல்’ அல்காரிதங்களும் முழுமையற்றவை. அவற்றைப் பயிற்றுவிக்கப் பயன்படுத்தப்பட்ட தரவுகளில் உள்ள பாரபட்சம் காரணமாக இந்த அமைப்புகளில் சில அந்த அளவுக்குச் சிறப்பானவையாக இருப்பதில்லை. எடுத்துக்காட்டாக, வெள்ளையரல்லாதோரை அடையாளம் காணும்போது இந்த அல்காரிதங்கள் அவ்வளவு சிறப்பாகச் செயல்படுவதில்லை.

மேலும், முக அடையாளமறிதல் அமைப்புகளின் கண்களாக இருக்கும் கேமராக்கள் கறுப்புத் தோல் உள்ளவர்களைப் படம்பிடிப்பதில் அவ்வளவு திறன்வாய்ந்தவையாக இருப்பதில்லை; இதற்குப் படச்சுருள் காலகட்டத்தின் ஆரம்ப நிலை நடைமுறைகள்தான் காரணம். அப்போது வெள்ளை நிற மக்களின் முகத்தை நன்றாகக் காட்டும் விதத்தில் புகைப்படங்கள் திறன்மேம்படுத்தப்பட்டன. இதன் பின்விளைவுகள் மிக மோசமானதாக இருக்கக் கூடும். ஜனவரியில், ராபர்ட் வில்லியம்ஸ் என்ற கறுப்பினத்தவர் அவர் செய்யாத குற்றத்துக்காக டெட்ராய்ட்டில் கைதுசெய்யப்பட்டார். இதற்கு, பிழையான முக அடையாளமறிதல் தொழில்நுட்பமே காரணம்.

‘செயற்கை நுண்ணறிவு’ நம் வாழ்க்கையை எளிதாக ஆக்கலாம், ஆனால் அதுவும் நம்மைப் போலவே தவறுகள் நிறைந்ததுவே; ஏனெனில், அதன் உருவாக்கத்தின் பின்னால் நாம்தானே இருக்கிறோம். ‘செயற்கை நுண்ணறிவு’ அமைப்புகள் எப்படி உருவாக்கப்பட வேண்டும் என்ற தெரிவை மனிதர்களே செய்கிறார்கள்; எப்படிப்பட்ட தரவுகளை அவற்றில் உள்ளீடு செய்ய வேண்டும் என்பதையும் அவர்களே முடிவுசெய்கிறார்கள். நமது மெய்நிகர் உதவியாளர்களுக்குக் கேட்பதற்குப் பயிற்சியளிப்பதற்கான குரல்களை நாமே தெரிவுசெய்கிறோம். இதனால், வெவ்வேறு வட்டார வழக்குகளைக் கொண்ட மக்களின் குரல்களை இந்த அமைப்புகளால் அடையாளம் காண முடியாமல் போய்விடுகிறது.

கணினிகள் நம்பத்தகுந்தவையா?

மனிதர்கள் தவறிழைப்பார்கள்தான்: இந்த அமைப்புகளில் உள்ள தவறுகளை நாம் காணத் தவறிவிடுகிறோம் அல்லது மூடிமறைத்துவிடுகிறோம், கணினிகள் மிகவும் தர்க்கபூர்வமானவை, விருப்புவெறுப்புக்கு அப்பாற்பட்டவை, எப்போதும் சரியாகத்தான் இருக்கும் என்று மிக விரைவில் நம்பிவிடுகிறோம். கணினிகளும் மனிதர்களும் சேர்ந்து முடிவெடுக்க வேண்டிய ஒரு சூழலில் – கைரேகைகளையோ மனித முகங்களையோ அடையாளம் காண்பதில் – கணினியால் குறிப்பிட்ட ஒரு முடிவை எடுக்கும்படி தூண்டப்படும்போது மனிதர்கள் தவறான அடையாளம் காணுதலைச் செய்கிறார்கள் என்பதை ஆய்வுகள் நிரூபித்திருக்கின்றன. காரின் டேஷ்போர்டு ஜிபிஎஸ் அமைப்புகளின் (வழியைக் காட்டும் சேவை) ஆரம்ப நாட்களில் ஓட்டுநர்கள் அந்த அமைப்புகளை மிதமிஞ்சிப் பின்பற்றி கார்களோடு ஏரிக்குள்ளோ பாறை உச்சியிலிருந்தோ விழுந்தார்கள் அல்லது மரங்களில் மோதினார்கள். இது பணிவா அல்லது அதீதப் பெருமிதமா? நாம் மனித அறிவின் மீது மிகக் குறைவான மதிப்பு வைத்திருக்கிறோமா – அல்லது நம்மை விட புத்திசாலியான விஷயங்களை உருவாக்கக் கூடிய அளவில் நாம் புத்திசாலியானவர்கள் என்ற எண்ணத்தில் அதை அளவுக்கு அதிகமாக எடைபோடுகிறோமா?

கூகுள், பிங் போன்றவற்றின் அல்காரிதங்கள் உலகத்தின் அறிவை நமக்காக வகைப்படுத்தித் தருகின்றன. ஃபேஸ்புக்கின் நியூஸ்ஃபீட் நமது சமூக வட்டங்களிலிருந்து சமீபத்திய பதிவுகள், தகவல்களை வடிகட்டித் தருகிறது; நமக்குக் காட்டுமளவுக்கு எவையெல்லாம் முக்கியமானவை என்று அது முடிவெடுக்கிறது. தானே ஓட்டிச்செல்லும் கார்களெல்லாம் வந்துவிட்டன. இவ்வாறாக நாம் நமது பாதுகாப்பை மென்பொருளின் கைகளில் (கண்களிலும்கூட) ஒப்படைத்துவிட்டோம். இந்த அமைப்புகள் மீது நாம் அளப்பரிய நம்பிக்கையை வைத்திருக்கிறோம். அவை நம்மைப் போலவே தவறிழைக்கக் கூடியவையாக இருக்கும் என்பதுதான் உண்மை.

© தி நியூயார்க் டைம்ஸ், சுருக்கமாகத் தமிழில்: ஆசை


Fake facesபோலி முகங்கள்ThisPersonDoesNotExist.comRosebud.AI

Sign up to receive our newsletter in your inbox every day!

You May Like

More From This Category

More From this Author

x