AI க்கு விதிகள் தேவை, ஆனால் அவற்றை யார் உருவாக்குவார்கள்?

துணைத் தலைவர் கமலா ஹாரிஸ் மற்றும் கோடீஸ்வரர் எலோன் மஸ்க் உட்பட உலகெங்கிலும் உள்ள சுமார் 150 அரசாங்க மற்றும் தொழில்துறை தலைவர்கள், இங்கிலாந்தின் AI பாதுகாப்பு உச்சி மாநாட்டிற்காக இந்த வாரம் இங்கிலாந்தில் இறங்கினர். செயற்கை நுண்ணறிவை எவ்வாறு ஒழுங்குபடுத்துவது என்பது குறித்த உலகளாவிய உரையாடலுக்கான மையப் புள்ளியாக இந்த சந்திப்பு செயல்பட்டது. ஆனால் சில வல்லுநர்களுக்கு, அந்த உரையாடலில் AI நிறுவனங்கள் வகிக்கும் வெளிப்புற பங்கையும் இது எடுத்துக்காட்டுகிறது-பாதிக்கப்படும் ஆனால் AI இன் வெற்றியில் நிதிப் பங்கு இல்லாத பலரின் இழப்பில்.

நவம்பர் 1 அன்று, 28 நாடுகளின் பிரதிநிதிகள் மற்றும் ஐரோப்பிய ஒன்றியம் பிளெட்ச்லி பிரகடனம் (உச்சிமாநாட்டின் இடம், இங்கிலாந்தின் பிளெட்ச்லியில் உள்ள பிளெட்ச்லி பார்க்) என்ற ஒப்பந்தத்தில் கையெழுத்திட்டனர். ஆனால் மன்றத்தின் பங்கேற்பாளர்களில் 10 பேரில் ஒருவருக்கு, அவர்களில் பலர் சிவில் சமூக அமைப்புகளைப் பிரதிநிதித்துவப்படுத்துகிறார்கள், U.K. வில் நடைபெறும் உரையாடல் போதுமானதாக இல்லை.

பிளெட்ச்லி பிரகடனத்தைத் தொடர்ந்து, கலந்துகொண்ட 11 அமைப்புகள், உச்சிமாநாடு எதிர்காலத்தில் ஏற்படக்கூடிய அபாயங்களில் கவனம் செலுத்துவதன் மூலம் உலகிற்கு தீங்கானது என்று ஒரு திறந்த கடிதத்தை வெளியிட்டது- பயங்கரவாதிகள் அல்லது சைபர் கிரைமினல்கள் உருவாக்கும் AI அல்லது அதிக அறிவியல் புனைகதை யோசனை போன்றவை. AI உணர்ச்சிவசப்பட்டு, மனித கட்டுப்பாட்டில் இருந்து விடுபடலாம் மற்றும் நம் அனைவரையும் அடிமைப்படுத்தலாம். பாகுபாடு, பொருளாதார இடப்பெயர்வு, சுரண்டல் மற்றும் பிற வகையான சார்புகள் உட்பட AI இன் ஏற்கனவே உண்மையான மற்றும் தற்போதைய அபாயங்களை உச்சிமாநாடு கவனிக்கவில்லை என்று கடிதம் கூறியது.

“உச்சிமாநாட்டின் நீண்ட கால பாதுகாப்பு பாதிப்புகளில் குறுகிய கவனம் செலுத்துவது, AI அமைப்புகள் ஏற்கனவே மக்களின் உரிமைகளை பாதிக்கும் வழிகளைக் கையாள்வதற்கான கொள்கை வகுப்பாளர்கள் மற்றும் நிறுவனங்களின் அவசரத் தேவையிலிருந்து திசைதிருப்பக்கூடும் என்று நாங்கள் கவலைப்படுகிறோம்” என்று அறிக்கையில் கையொப்பமிட்டவர்களில் ஒருவரும் தலைமை நிர்வாக அதிகாரியுமான அலெக்ஸாண்ட்ரா ரீவ் கிவன்ஸ் கூறுகிறார். ஜனநாயகம் மற்றும் தொழில்நுட்பத்திற்கான இலாப நோக்கற்ற மையம் (CDT). AI மிக விரைவாக வளர்ச்சியடைந்து வருவதால், கோட்பாட்டு ரீதியிலான எதிர்கால அபாயங்களைத் தவிர்ப்பதற்கான விதிகளில் கவனம் செலுத்துவது, இங்கும் இப்போதும் உள்ள ஆபத்துக்களைத் தீர்க்கும் சட்டத்தை எழுதுவதற்குச் சிறப்பாகச் செலவழிக்க முடியும் என்று பலர் நினைக்கிறார்கள் என்று அவர் கூறுகிறார்.

இந்த தீங்குகள் சில எழுகின்றன, ஏனெனில் உற்பத்தி AI மாதிரிகள் இணையத்தில் இருந்து பெறப்பட்ட தரவுகளில் பயிற்றுவிக்கப்படுகின்றன. இதன் விளைவாக, அத்தகைய மாதிரிகள் சில குழுக்களுக்கு சாதகமாக மற்றும் பிறருக்கு பாதகமான முடிவுகளை உருவாக்குகின்றன. சிஇஓக்கள் அல்லது வணிகத் தலைவர்களின் சித்தரிப்புகளை உருவாக்க நீங்கள் படத்தை உருவாக்கும் AI ஐக் கேட்டால், எடுத்துக்காட்டாக, நடுத்தர வயதுடைய வெள்ளையர்களின் புகைப்படங்களை அது பயனர்களுக்குக் காண்பிக்கும். சிடிடியின் சொந்த ஆராய்ச்சி, இதற்கிடையில், பெரும்பான்மையான மாடல்களின் பயிற்சித் தரவு ஆங்கிலத்தில் இருப்பதால், ஜெனரேட்டிவ் AIஐப் பயன்படுத்துவதால் ஆங்கிலம் அல்லாத பேசுபவர்கள் எவ்வாறு பின்தங்கியிருக்கிறார்கள் என்பதை எடுத்துக்காட்டுகிறது.

மேலும் தொலைதூர எதிர்கால-ஆபத்து சூழ்நிலைகள் தெளிவாக முன்னுரிமை ஆகும், இருப்பினும், ChatGPT ஐ உருவாக்கிய OpenAI உட்பட சில சக்திவாய்ந்த AI நிறுவனங்களுக்கு. திறந்த கடிதத்தில் கையொப்பமிட்ட பலர், பிளெட்ச்லி பார்க் உச்சிமாநாடு போன்ற முக்கிய தொடர்புடைய நிகழ்வுகளை வடிவமைப்பதில் AI தொழில்துறைக்கு ஒரு பெரிய செல்வாக்கு இருப்பதாக நினைக்கிறார்கள். உதாரணமாக, உச்சிமாநாட்டின் உத்தியோகபூர்வ அட்டவணையானது “எல்லைப்புற AI” என்ற சொற்றொடருடன் தற்போதைய AI கருவிகளின் தொகுப்பை விவரித்தது, இது AI தொழில்துறை அதன் சுய-காவல் கண்காணிப்பு அமைப்பான எல்லைப்புற மாதிரி மன்றத்திற்கு பெயரிடுவதில் பயன்படுத்திய சொற்களை எதிரொலிக்கிறது.

இத்தகைய நிகழ்வுகளில் செல்வாக்கு செலுத்துவதன் மூலம், அதிகாரபூர்வ AI கொள்கையை வடிவமைப்பதில் சக்திவாய்ந்த நிறுவனங்களும் சமமற்ற பாத்திரத்தை வகிக்கின்றன – இது “ஒழுங்குமுறை பிடிப்பு” என்று அழைக்கப்படும் ஒரு வகை சூழ்நிலை. இதன் விளைவாக, அந்தக் கொள்கைகள் நிறுவனத்தின் நலன்களுக்கு முன்னுரிமை அளிக்கின்றன. ஸ்டான்போர்ட் பல்கலைக்கழகத்தின் சைபர் பாலிசி மையத்தின் சர்வதேச கொள்கை இயக்குனரான மரியட்ஜே ஷேக் கூறுகையில், “ஒரு ஜனநாயக செயல்முறையைக் கொண்டிருக்கும் ஆர்வத்தில், இந்த செயல்முறை சுயாதீனமாக இருக்க வேண்டும் மற்றும் நிறுவனங்களால் கைப்பற்றுவதற்கான வாய்ப்பாக இருக்கக்கூடாது.

ஒரு உதாரணத்திற்கு, பெரும்பாலான தனியார் நிறுவனங்கள் ஓப்பன் சோர்ஸ் AIக்கு முன்னுரிமை அளிப்பதில்லை (மெட்டாவின் LAMA மாதிரி போன்ற விதிவிலக்குகள் இருந்தாலும்). U.K. உச்சிமாநாடு தொடங்குவதற்கு இரண்டு நாட்களுக்கு முன்பு, U.K. உச்சிமாநாடு தொடங்குவதற்கு இரண்டு நாட்களுக்கு முன்பு, ஜனாதிபதி ஜோ பைடன் ஒரு நிர்வாக ஆணையை வெளியிட்டார், அதில் கல்வித்துறையில் சிலர் திறந்த மூல AI டெவலப்பர்களின் இழப்பில் தனியார் துறை வீரர்களுக்கு ஆதரவாகக் கருதும் விதிகளை உள்ளடக்கியது. ஜார்ஜியா இன்ஸ்டிடியூட் ஆப் டெக்னாலஜியின் கம்ப்யூட்டிங் இணைப் பேராசிரியரான மார்க் ரீட்ல் கூறுகையில், “திறந்த மூல [AI], திறந்த அறிவியல் மற்றும் AI இன் ஜனநாயகமயமாக்கலுக்கு இது மிகப்பெரிய விளைவுகளை ஏற்படுத்தக்கூடும். அக்டோபர் 31 அன்று, லாப நோக்கமற்ற Mozilla அறக்கட்டளை AI மாதிரிகளில் திறந்த தன்மை மற்றும் பாதுகாப்பின் அவசியத்தை வலியுறுத்தும் ஒரு தனி திறந்த கடிதத்தை வெளியிட்டது. அதன் கையொப்பமிட்டவர்களில் நியூயார்க் பல்கலைக்கழகத்தில் AI இன் பேராசிரியரும் மெட்டாவின் தலைமை AI விஞ்ஞானியுமான Yann LeCun அடங்குவார்.

சில வல்லுநர்கள், AI நிறுவனங்களின் முதன்மைக் கவலையைத் தாண்டி உரையாடலை நீட்டிக்குமாறு கேட்டுக்கொள்கிறார்கள் – சில எதிர்கால செயற்கை பொது நுண்ணறிவு (AGI) கைகளில் இருத்தலியல் ஆபத்து – சாத்தியமான தீங்குகளின் பரந்த பட்டியலுக்கு. மற்றவர்களுக்கு, இந்த பரந்த நோக்கம் கூட போதுமானதாக இல்லை.

“AGI அபாயங்கள் கவனச்சிதறல் மற்றும் கார்ப்பரேட் கூட்டுறவு பற்றிய கவலையைப் பற்றி நான் முற்றிலும் பாராட்டுகிறேன், ஆபத்துகளில் கவனம் செலுத்த முயற்சிப்பது கூட மக்களின் இழப்பில் பெருநிறுவனங்களுக்கு மிகவும் பயனுள்ளதாக இருக்கும் என்று நான் கவலைப்படத் தொடங்குகிறேன்” என்கிறார் மார்கரெட் மிட்செல் , AI நிறுவனமான ஹக்கிங் ஃபேஸின் தலைமை நெறிமுறை விஞ்ஞானி. (பிளெட்ச்லி பார்க் உச்சிமாநாட்டில் நிறுவனம் பிரதிநிதித்துவப்படுத்தப்பட்டது, ஆனால் அந்த நேரத்தில் நியூயார்க் மாநிலத்தின் செனட்டர் சக் ஷுமர் நடத்திய ஒரே நேரத்தில் நடந்த மன்றத்தில் மிட்செல் அமெரிக்காவில் இருந்தார்.)

“AI கட்டுப்பாடு மக்கள் மீது கவனம் செலுத்த வேண்டும், தொழில்நுட்பம் அல்ல,” மிட்செல் கூறுகிறார். “அதாவது, ‘இந்தத் தொழில்நுட்பம் என்ன மோசமாகச் செய்யக்கூடும், அதை எவ்வாறு வகைப்படுத்துவது?’ என்பதில் கவனம் குறைவாக இருப்பது மற்றும் ‘நாம் மக்களை எவ்வாறு பாதுகாக்க வேண்டும்’ என்பதில் அதிக கவனம் செலுத்துவது” என்று மிட்செலின் ஆபத்து அடிப்படையிலான சுறுசுறுப்பு இந்த வாரம் U.K உச்சி மாநாடு மற்றும் பிற ஒத்த நிகழ்வுகளில் அந்த அணுகுமுறையில் கையெழுத்திட பல நிறுவனங்கள் தயாராக இருந்ததால் அணுகுமுறை ஒரு பகுதியாக எழுந்தது. “இது உடனடியாக எனக்கு சிவப்புக் கொடிகளை அமைத்தது,” என்று அவர் கூறுகிறார், ஷுமர் மன்றத்தில் இதேபோன்ற கருத்தை அவர் கூறினார்.

மிட்செல், ஆபத்து அடிப்படையிலான ஒன்றைக் காட்டிலும், AI ஒழுங்குமுறைக்கு உரிமைகள் அடிப்படையிலான அணுகுமுறையை எடுக்க வாதிடுகிறார். U.K. நிகழ்வில் கலந்துகொண்ட ப்ரூக்கிங்ஸ் இன்ஸ்டிட்யூஷனின் சக சைனாசா டி. ஓகோலோவும் அப்படித்தான். “உச்சிமாநாட்டின் முதன்மை உரையாடல்கள், ‘எல்லைப்புற மாதிரிகள்’ சமூகத்திற்கு ஏற்படுத்தும் அபாயங்களைச் சுற்றியே உள்ளன, ஆனால் AI மேம்பாட்டிற்கு மிகவும் அவசியமான தொழிலாளர்களான டேட்டா லேபிலர்களுக்கு AI ஏற்படுத்தும் தீங்குகளை விட்டுவிடுங்கள்” என்று அவர் கூறுகிறார்.

மனித உரிமைகள் மீது குறிப்பாக கவனம் செலுத்துவது, அரசியல்வாதிகள் மற்றும் கட்டுப்பாட்டாளர்கள் மிகவும் வசதியாக உணரக்கூடிய ஒரு பகுதியில் உரையாடலை அமைந்துள்ளது. AI இலிருந்து தீங்கு விளைவிக்கும் ஆபத்தில் உள்ள அதிகமான மக்களைப் பாதுகாக்க சட்டமியற்றுபவர்கள் நம்பிக்கையுடன் சட்டத்தை உருவாக்க இது உதவும் என்று மிட்செல் நம்புகிறார். தங்களுடைய தற்போதைய பதவிகளைப் பாதுகாக்க மிகவும் ஆர்வமுள்ள தொழில்நுட்ப நிறுவனங்களுக்கும் அவர்களின் பில்லியன் கணக்கான டாலர் முதலீடுகளுக்கும் இது ஒரு சமரசத்தை வழங்கக்கூடும். “அரசாங்கம் உரிமைகள் மற்றும் குறிக்கோள்களில் கவனம் செலுத்துவதன் மூலம், நீங்கள் மேல்-கீழ் ஒழுங்குமுறையை கலக்கலாம், அங்கு அரசாங்கம் மிகவும் தகுதி வாய்ந்தது,” என்று அவர் கூறுகிறார், “டெவலப்பர்கள் மிகவும் தகுதியானவர்களான கீழ்மட்ட ஒழுங்குமுறையுடன்.”

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *