உங்கள் குரலின் ஒலியைத் திருடாமல் AI ஐ எவ்வாறு தடுப்பது

சில்க் ஹான் & கேரி ஸ்டிக்ஸ் மூலம் குரல் பதிவுகளை பகுப்பாய்வு செய்வதை AI கருவிகளுக்கு கடினமாக்குவதன் மூலம் ஆன்டிஃபேக் என்ற புதிய தொழில்நுட்பம் உங்கள் குரலின் ஒலி திருடப்படுவதைத் தடுக்கிறது.

உருவாக்கும் செயற்கை நுண்ணறிவின் முன்னேற்றங்கள், ஒரு நபர் மற்றொரு மனிதனுடன் பேசுகிறானா அல்லது ஒரு ஆழமான நபருடன் பேசுகிறானா என்பதை வேறுபடுத்திப் பார்க்க முடியாத அளவுக்கு உண்மையான-ஒலி பேச்சுத் தொகுப்பை செயல்படுத்துகிறது. ஒரு நபரின் சொந்தக் குரல் அவர்களின் அனுமதியின்றி மூன்றாம் தரப்பினரால் “குளோன்” செய்யப்பட்டால், தீங்கிழைக்கும் நடிகர்கள் தாங்கள் விரும்பும் எந்த செய்தியையும் அனுப்ப அதைப் பயன்படுத்தலாம்.

டிஜிட்டல் தனிப்பட்ட உதவியாளர்கள் அல்லது அவதாரங்களை உருவாக்குவதற்குப் பயனுள்ளதாக இருக்கும் தொழில்நுட்பத்தின் மறுபக்கம் இதுவாகும். ஆழமான குரல் மென்பொருளைக் கொண்டு உண்மையான குரல்களை குளோனிங் செய்யும் போது தவறாகப் பயன்படுத்துவதற்கான சாத்தியக்கூறுகள் வெளிப்படையானவை: செயற்கைக் குரல்கள் மற்றவர்களை தவறாக வழிநடத்த எளிதாக தவறாகப் பயன்படுத்தப்படலாம். மேலும் சில வினாடிகள் குரல் பதிவு மூலம் ஒரு நபரின் குரலை நம்பத்தகுந்த வகையில் குளோன் செய்ய முடியும். எப்போதாவது குரல் செய்திகளை அனுப்பும் அல்லது பதிலளிக்கும் இயந்திரங்களில் பேசும் எவரும் ஏற்கனவே குளோனிங் செய்ய போதுமானதை விட அதிகமான பொருட்களை உலகிற்கு வழங்கியுள்ளனர்.

செயின்ட் லூயிஸில் உள்ள வாஷிங்டன் பல்கலைக்கழகத்தில் உள்ள மெக்கெல்வி இன்ஜினியரிங் பள்ளியின் கணினி விஞ்ஞானியும் பொறியியலாளருமான நிங் ஜாங், அங்கீகரிக்கப்படாத பேச்சுத் தொகுப்பைத் தடுக்க ஒரு புதிய முறையை உருவாக்கியுள்ளார்: ஆன்டிஃபேக் என்ற கருவி. நவம்பர் 27 அன்று டென்மார்க்கின் கோபன்ஹேகனில் நடந்த கணினி மற்றும் தகவல் தொடர்பு பாதுகாப்புக்கான அசோசியேஷன் ஃபார் கம்ப்யூட்டிங் மெஷினரியின் மாநாட்டில் ஜாங் அதை விளக்கினார்.

டீப்ஃபேக்குகளைக் கண்டறிவதற்கான வழக்கமான முறைகள் சேதம் ஏற்கனவே செய்யப்பட்டவுடன் மட்டுமே நடைமுறைக்கு வரும். மறுபுறம், ஆன்டிஃபேக், குரல் தரவை ஆடியோ டீப்ஃபேக்காக ஒருங்கிணைப்பதைத் தடுக்கிறது. டிஜிட்டல் கள்ளநோட்டுக்காரர்களை அவர்களின் சொந்த விளையாட்டில் வெல்லும் வகையில் இந்த கருவி வடிவமைக்கப்பட்டுள்ளது: இது சைபர் கிரைமினல்களால் குரல் குளோனிங்கிற்கு பயன்படுத்தப்பட்டதைப் போன்ற நுட்பங்களைப் பயன்படுத்தி, உண்மையில் திருட்டு மற்றும் கள்ளநோட்டுகளிலிருந்து குரல்களைப் பாதுகாக்கிறது. AntiFake திட்டத்தின் மூல உரை இலவசமாகக் கிடைக்கும்.

ஆண்டிடீப்ஃபேக் மென்பொருள் சைபர் கிரைமினல்களுக்கு குரல் தரவை எடுப்பதை மிகவும் கடினமாக்கும் வகையில் வடிவமைக்கப்பட்டுள்ளது மற்றும் குரல் தொகுப்புக்கு முக்கியமான ஒரு பதிவின் அம்சங்களைப் பிரித்தெடுக்கிறது. “கருவி முதலில் சைபர் கிரைமினல்களின் கருவிப்பெட்டியின் ஒரு பகுதியாக இருந்த எதிரிடையான AI இன் நுட்பத்தைப் பயன்படுத்துகிறது, ஆனால் இப்போது நாங்கள் அவர்களுக்கு எதிராகப் பாதுகாக்க அதைப் பயன்படுத்துகிறோம்” என்று ஜாங் மாநாட்டில் கூறினார். “நாங்கள் பதிவுசெய்யப்பட்ட ஆடியோ சிக்னலை சிறிது சிறிதாகக் குழப்பிவிடுகிறோம், சிதைக்கிறோம் அல்லது குழப்பிவிடுகிறோம், அது இன்னும் மனிதர்களுக்குச் சரியாகத் தெரியும்”-அதே நேரத்தில் குரல் குளோனைப் பயிற்றுவிப்பதற்கு அதைப் பயன்படுத்த முடியாது.

இணையத்தில் படைப்புகளின் நகல் பாதுகாப்புக்கு இதே போன்ற அணுகுமுறைகள் ஏற்கனவே உள்ளன. எடுத்துக்காட்டாக, மனிதக் கண்ணுக்கு இன்னும் இயற்கையாகத் தோன்றும் படங்கள், படக் கோப்பில் கண்ணுக்குத் தெரியாத இடையூறு காரணமாக இயந்திரங்களால் படிக்க முடியாத தகவலைக் கொண்டிருக்கலாம்.

உதாரணமாக, Glaze எனப்படும் மென்பொருள், பெரிய AI மாடல்களின் மெஷின் லேர்னிங்கிற்கு படங்களைப் பயன்படுத்த முடியாதபடி உருவாக்க வடிவமைக்கப்பட்டுள்ளது, மேலும் சில தந்திரங்கள் புகைப்படங்களில் முகத்தை அடையாளம் காணாமல் பாதுகாக்கின்றன. “நாம் குரல் தரவை வெளியிடும்போது, ​​​​குற்றவாளிகள் எங்கள் குரல்களை ஒருங்கிணைக்க மற்றும் நம்மை ஆள்மாறாட்டம் செய்ய அந்த தகவலைப் பயன்படுத்துவது கடினம் என்பதை ஆன்டிஃபேக் உறுதிசெய்கிறது” என்று ஜாங் கூறினார்.

உலகளாவிய நிறுவனங்கள், உள்கட்டமைப்பு மற்றும் அரசாங்கங்கள் மீதான தானியங்கு இணையத் தாக்குதல்களின் தற்போதைய அதிகரிப்பின் மூலம், தாக்குதல் முறைகள் தொடர்ந்து மேம்படுத்தப்பட்டு மேலும் அதிநவீனமாகி வருகின்றன. ஆண்டிஃபேக் டீப்ஃபேக்குகளைச் சுற்றியுள்ள தொடர்ந்து மாறிவரும் சூழலை முடிந்தவரை தக்க வைத்துக் கொள்ள முடியும் என்பதை உறுதிப்படுத்த, ஜாங் மற்றும் அவரது முனைவர் பட்டம் பெற்ற மாணவர் ஷியுவான் யூ ஆகியோர் தங்கள் கருவியை உருவாக்கியுள்ளனர், இது சாத்தியமான அச்சுறுத்தல்களைத் தடுக்க பயிற்சியளிக்கப்பட்டது.

ஜாங்கின் ஆய்வகம் ஐந்து நவீன பேச்சு சின்தசைசர்களுக்கு எதிராக கருவியை சோதித்தது. ஆராய்ச்சியாளர்களின் கூற்றுப்படி, ஆன்டிஃபேக் 95 சதவீத பாதுகாப்பு விகிதத்தை அடைந்தது, இது குறிப்பாக வடிவமைக்கப்படாத அறியப்படாத வணிக சின்தசைசர்களுக்கு எதிராகவும். ஜாங் மற்றும் யூ வெவ்வேறு மக்கள் குழுக்களைச் சேர்ந்த 24 மனித சோதனை பங்கேற்பாளர்களுடன் தங்கள் கருவியின் பயன்பாட்டினை சோதித்தனர். பிரதிநிதித்துவ ஒப்பீட்டு ஆய்வுக்கு மேலும் சோதனைகள் மற்றும் ஒரு பெரிய சோதனைக் குழு அவசியம்.

ஆன்டிஃபேக்கின் வளர்ச்சியில் ஈடுபடாத சிகாகோ பல்கலைக்கழகத்தின் கணினி அறிவியல் பேராசிரியரான பென் ஜாவோ, அனைத்து டிஜிட்டல் பாதுகாப்பு அமைப்புகளைப் போலவே இந்த மென்பொருளும் ஒருபோதும் முழுமையான பாதுகாப்பை வழங்காது மற்றும் மோசடி செய்பவர்களின் தொடர்ச்சியான புத்திசாலித்தனத்தால் அச்சுறுத்தப்படும் என்று கூறுகிறார். ஆனால், அவர் மேலும் கூறுகிறார், இது “பட்டியை உயர்த்தலாம் மற்றும் குறிப்பிடத்தக்க ஆதாரங்களைக் கொண்ட அதிக உந்துதல் பெற்ற நபர்களின் சிறிய குழுவிற்கு தாக்குதலை கட்டுப்படுத்தலாம்.”

“கடினமான மற்றும் சவாலான தாக்குதல், பள்ளிகளில் கொடுமைப்படுத்தும் தந்திரமாகப் பயன்படுத்தப்படும் குரல்-மிமிக்ரி மோசடிகள் அல்லது டீப்ஃபேக் ஆடியோ கிளிப்புகள் பற்றி குறைவான நிகழ்வுகளைக் கேட்போம். இது ஆராய்ச்சியின் சிறந்த முடிவு,” ஜாவோ கூறுகிறார்.

ஆண்டிஃபேக் ஏற்கனவே குறுகிய குரல் பதிவுகளை ஆள்மாறாட்டத்திற்கு எதிராக பாதுகாக்க முடியும், இது சைபர் கிரைமினல் மோசடியின் மிகவும் பொதுவான வழிமுறையாகும். கருவியை உருவாக்கியவர்கள் பெரிய ஆடியோ ஆவணங்கள் அல்லது இசையை தவறாகப் பயன்படுத்தாமல் பாதுகாக்க நீட்டிக்கப்படலாம் என்று நம்புகிறார்கள். தற்போது, ​​பயனர்கள் இதை தாங்களே செய்ய வேண்டும், இதற்கு நிரலாக்க திறன்கள் தேவை.

குரல் பதிவுகளை முழுமையாகப் பாதுகாப்பதே நோக்கம் என்று ஜாங் மாநாட்டில் கூறினார். இது உண்மையாகிவிட்டால், டீப்ஃபேக்குகளுக்கு எதிராகப் போராட AI-ன் பாதுகாப்பு-முக்கியமான பயன்பாட்டில் உள்ள ஒரு பெரிய குறைபாட்டை நாம் பயன்படுத்திக் கொள்ள முடியும். ஆனால் உருவாக்கப்படும் முறைகள் மற்றும் கருவிகள் தவிர்க்க முடியாததால், சைபர் குற்றவாளிகள் அவர்களுடன் கற்றுக்கொண்டு வளர வேண்டும்.

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *