OpenAI இன் Ilya Sutskever சூப்பர்-இன்டெலிஜென்ட் AI ஐ கட்டுக்குள் வைத்திருக்க ஒரு திட்டத்தைக் கொண்டுள்ளது

ஓபன்ஏஐ மனிதகுலம் அனைவருக்கும் பயனளிக்கும் செயற்கை நுண்ணறிவை உருவாக்குவதற்கான வாக்குறுதியின் அடிப்படையில் நிறுவப்பட்டது-அந்த AI அதன் படைப்பாளர்களை விட கணிசமான அளவில் புத்திசாலியாக மாறினாலும் கூட. கடந்த ஆண்டு ChatGPT அறிமுகமானதிலிருந்து மற்றும் நிறுவனத்தின் சமீபத்திய நிர்வாக நெருக்கடியின் போது, ​​அதன் வணிக நோக்கங்கள் மிகவும் முக்கியத்துவம் வாய்ந்தவை. இப்போது, ​​எதிர்காலத்தின் சூப்பர்ஸ்மார்ட் AI களை எதிர்த்துப் போராடும் ஒரு புதிய ஆராய்ச்சி குழு பலனைத் தரத் தொடங்குவதாக நிறுவனம் கூறுகிறது.

“AGI மிக வேகமாக நெருங்கி வருகிறது,” என்று ஜூலை மாதம் நிறுவப்பட்ட Superalignment ஆராய்ச்சிக் குழுவுடன் தொடர்புடைய OpenAI இன் ஆராய்ச்சியாளர் லியோபோல்ட் அஸ்சென்ப்ரென்னர் கூறுகிறார். “நாங்கள் மனிதநேயமற்ற மாதிரிகளைப் பார்க்கப் போகிறோம், அவை பரந்த திறன்களைக் கொண்டிருக்கும், மேலும் அவை மிகவும் ஆபத்தானவை, மேலும் அவற்றைக் கட்டுப்படுத்தும் முறைகள் எங்களிடம் இல்லை.” ஓபன்ஏஐ அதன் கிடைக்கக்கூடிய கணினி சக்தியில் ஐந்தில் ஒரு பகுதியை சூப்பர்அலைன்மென்ட் திட்டத்திற்கு அர்ப்பணிப்பதாக கூறியுள்ளது.

இன்று OpenAI ஆல் வெளியிடப்பட்ட ஒரு ஆய்வுக் கட்டுரையானது, ஒரு தரக்குறைவான AI மாதிரியானது குறைவான புத்திசாலித்தனமாக இல்லாமல் மிகவும் புத்திசாலித்தனமான ஒருவரின் நடத்தையை வழிநடத்த அனுமதிக்கும் வழியைச் சோதிக்க வடிவமைக்கப்பட்ட சோதனைகளின் முடிவுகளைக் கூறுகிறது. இதில் உள்ள தொழில்நுட்பம் மனிதர்களின் நெகிழ்வுத்தன்மையை விஞ்சுவதில் இருந்து வெகு தொலைவில் இருந்தாலும், மனிதர்கள் தங்களை விட புத்திசாலித்தனமாக AI அமைப்புகளுடன் பணிபுரிய வேண்டிய எதிர்கால காலத்திற்கு இந்த காட்சி வடிவமைக்கப்பட்டுள்ளது.

OpenAI இன் ஆராய்ச்சியாளர்கள் மேற்பார்வை எனப்படும் செயல்முறையை ஆய்வு செய்தனர், இது GPT-4, ChatGPT க்குப் பின்னால் உள்ள பெரிய மொழி மாதிரி, மிகவும் உதவிகரமாகவும் குறைவான தீங்கு விளைவிக்கக்கூடியதாகவும் இருக்கும். தற்போது இது மனிதர்கள் AI அமைப்புக்கு எந்த பதில்கள் நல்லது மற்றும் எது கெட்டது என்பது பற்றிய கருத்துக்களை வழங்குவதை உள்ளடக்கியது. AI முன்னேறும்போது, ​​நேரத்தை மிச்சப்படுத்த இந்த செயல்முறையை எவ்வாறு தானியக்கமாக்குவது என்பதை ஆராய்ச்சியாளர்கள் ஆராய்கின்றனர் – ஆனால் AI மிகவும் சக்திவாய்ந்ததாக இருப்பதால், பயனுள்ள கருத்துக்களை மனிதர்களுக்கு வழங்குவது சாத்தியமற்றதாகிவிடும் என்று அவர்கள் நினைக்கிறார்கள்.

GPT-4 ஐக் கற்பிப்பதற்காக 2019 இல் முதன்முதலில் வெளியிடப்பட்ட OpenAI இன் GPT-2 உரை ஜெனரேட்டரைப் பயன்படுத்தி ஒரு கட்டுப்பாட்டு பரிசோதனையில், மிக சமீபத்திய அமைப்பு குறைந்த திறன் கொண்டது மற்றும் தாழ்வான அமைப்பைப் போன்றது. இதை சரிசெய்ய ஆராய்ச்சியாளர்கள் இரண்டு யோசனைகளை சோதித்தனர். ஒவ்வொரு அடியிலும் இழந்த செயல்திறனைக் குறைக்க, படிப்படியாக பெரிய மாடல்களைப் பயிற்றுவிப்பதில் ஒருவர் ஈடுபட்டார். மற்றொன்றில், குழு GPT-4 இல் ஒரு அல்காரிதமிக் மாற்றங்களைச் சேர்த்தது, இது வலிமையான மாடலை அதன் செயல்திறனை மழுங்கடிக்காமல் பலவீனமான மாதிரியின் வழிகாட்டுதலைப் பின்பற்ற அனுமதித்தது. இது மிகவும் பயனுள்ளதாக இருந்தது, இருப்பினும் இந்த முறைகள் வலுவான மாதிரி சரியாக செயல்படும் என்பதற்கு உத்தரவாதம் அளிக்கவில்லை என்று ஆராய்ச்சியாளர்கள் ஒப்புக்கொள்கிறார்கள், மேலும் அவர்கள் அதை மேலும் ஆராய்ச்சிக்கான தொடக்க புள்ளியாக விவரிக்கிறார்கள்.

“மனிதநேயமற்ற AIகளைக் கட்டுப்படுத்துவதில் உள்ள பிரச்சனையை ஓபன்ஏஐ முன்னெச்சரிக்கையுடன் நிவர்த்தி செய்வதைப் பார்ப்பது மிகவும் மகிழ்ச்சி அளிக்கிறது” என்று AI அபாயங்களை நிர்வகிப்பதற்கு அர்ப்பணிக்கப்பட்ட சான் பிரான்சிஸ்கோவில் உள்ள ஒரு லாப நோக்கமற்ற AI பாதுகாப்பு மையத்தின் இயக்குனர் டான் ஹென்ட்ரிக்ஸ் கூறுகிறார். “இந்த சவாலை எதிர்கொள்ள பல வருட அர்ப்பணிப்பு முயற்சி தேவை.”

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *