AI முன்னேறும்போது, புதுமை பாதுகாப்பை விட அதிகமாக உள்ளது என்ற கவலைகள் வளர்கின்றன
ஜனவரி மாதம் வெனிசுலாவின் முன்னாள் ஜனாதிபதி நிக்கோலஸ் மதுரோவை அமெரிக்க இராணுவம் கைப்பற்றியபோது, அது ஒரு தனியார் அமெரிக்க நிறுவனம் உருவாக்கிய AI கருவியைப் பயன்படுத்தியது. சாதனம் சரியாக என்ன செய்தது என்பது தெளிவாகத் தெரியவில்லை, ஆனால் நிறுவனத்தின் கொள்கை அதன் தயாரிப்புகளை வன்முறையைத் தூண்டவோ அல்லது ஆயுதங்களை உருவாக்கவோ பயன்படுத்த முடியாது என்று கூறுகிறது.
ஆக்சியோஸின் கூற்றுப்படி, இராணுவம் அதன் தொழில்நுட்பத்தை எவ்வாறு பயன்படுத்துகிறது என்பதில் அதன் செல்வாக்கு அதிகரித்து வருவதால், பென்டகன் இப்போது அந்த நிறுவனமான ஆந்த்ரோபிக் உடனான உறவுகளைத் துண்டிக்க பரிசீலித்து வருகிறது.
AI பாதுகாப்புகளுக்கும் தேசிய பாதுகாப்புக்கும் இடையிலான பதற்றம் ஒன்றும் புதிதல்ல. ஆனால் கடந்த மாதத்தில் நடந்த பல நிகழ்வுகள், ஆயுத மேம்பாடு முதல் நெறிமுறை விளம்பரம் வரையிலான சூழல்களில், AI பாதுகாப்பு பிரச்சினையை கவனத்தில் கொள்ள வைத்துள்ளது.
இதை ஏன் எழுதினோம்
செயற்கை நுண்ணறிவு மிக வேகமாக வளர்ந்து வருகிறது, சில தொழில்துறையினர் பாதுகாப்புக் கவலைகள் போதுமான கவனம் செலுத்தப்படவில்லை என்று அஞ்சுகின்றனர். இது புதுமை, போட்டி மற்றும் பாதுகாப்பு நடவடிக்கைகளை சமநிலைப்படுத்துவது பற்றிய விவாதத்தை தூண்டுகிறது.
ஜனநாயகம் மற்றும் தொழில்நுட்ப மையத்தின் AI ஆளுமை ஆய்வகத்தின் நிறுவன இயக்குனர் மிராண்டா போகன் கூறுகையில், “AI துறையில் உள்ள பலர் நீண்ட காலமாக பல்வேறு வடிவங்களில் பாதுகாப்பு பற்றி யோசித்து வருகின்றனர். “ஆனால் இப்போது இந்த உரையாடல்கள் மிகவும் புலப்படும் மேடையில் நடக்கின்றன.”
இந்த மாதம், இரண்டு பெரிய US AI நிறுவனங்களில் இருந்து ஆராய்ச்சியாளர்கள் ராஜினாமா செய்தனர், நுகர்வோர் தரவு சேகரிப்பு போன்ற விஷயங்களைச் சுற்றியுள்ள நிறுவனங்களின் பாதுகாப்பு நடவடிக்கைகளில் உள்ள குறைபாடுகளைக் காரணம் காட்டி. பிப்ரவரி 9 அன்று “ஏதோ பெரிய விஷயம் நடக்கிறது” என்ற தலைப்பில் ஒரு கட்டுரையில், முதலீட்டாளர் Matt Schumer எச்சரித்தார், AI விரைவில் அமெரிக்கர்களின் வேலைகளை ஆபத்தில் ஆழ்த்துவது மட்டுமல்லாமல், அதன் படைப்பாளர்களால் “கணிக்கவோ கட்டுப்படுத்தவோ முடியாது” அந்தக் கட்டுரை சமூக வலைதளங்களில் வைரலானது.
மிகவும் உண்மையான அபாயங்கள் மீது நடவடிக்கை எடுக்க வலியுறுத்தும் அதே வேளையில், பல AI பாதுகாப்பு வல்லுநர்கள் அனுமான காட்சிகள் பற்றிய மிகைப்படுத்தப்பட்ட அச்சங்களுக்கு எதிராக எச்சரிக்கின்றனர்.
“பொது கவனத்தை ஈர்க்கும் இந்த தருணங்கள் மதிப்புமிக்கவை, ஏனெனில் அவை AI பற்றிய பொது விவாதத்திற்குத் தேவையான வாய்ப்புகளை உருவாக்குகின்றன” என்று செயற்கை நுண்ணறிவுக்கான ஐ.நா. உயர்மட்ட ஆலோசனைக் குழுவின் முன்னாள் உறுப்பினரான டாக்டர் அலோன்ட்ரா நெல்சன், இந்தியாவில் நடந்த உலகளாவிய AI உச்சிமாநாட்டில் கலந்துகொண்டபோது மானிட்டருக்கு மின்னஞ்சலில் எழுதினார். “ஆனால் அவை ஜனநாயக விவாதம், ஒழுங்குமுறை மற்றும் உண்மையான பொதுப் பொறுப்புக்கூறல் ஆகியவற்றிற்கு மாற்றாக இல்லை.”
போட்டியிட அழுத்தம்
டிசம்பரில், ஜனாதிபதி டொனால்ட் டிரம்ப் AI ஐ ஒழுங்குபடுத்தும் “கடுமையான” மாநில சட்டங்களைத் தடுக்கும் ஒரு நிர்வாக ஆணையை வெளியிட்டார். எடுத்துக்காட்டாக, பணியமர்த்தல் மற்றும் கல்வி போன்ற பகுதிகளில் “அல்காரிதம் பாகுபாட்டை” தடை செய்யும் கொலராடோ சட்டத்தை அவரது உத்தரவு ஒதுக்கி வைத்தது. ஜனாதிபதியின் உத்தரவை குடியரசுக் கட்சியினர் ஆதரித்தனர், AI நிறுவனங்களை அதிகப்படியான விதிமுறைகளுக்கு இணங்க நிர்பந்திப்பது அமெரிக்காவை சீனாவுடன் போட்டியிடும் பாதகமாக வைக்கக்கூடும் என்று கூறினார்.
ஆந்த்ரோபிக் பென்டகனில் இருந்து விலகிச் செல்வதற்கு போட்டி உணர்வு மையமாகத் தோன்றுகிறது. ஆந்த்ரோபிக் அதன் தொழில்நுட்பம் உள்நாட்டு கண்காணிப்பை நடத்தவோ அல்லது மனித உள்ளீடு இல்லாமல் சுடும் ஆயுதங்களை உருவாக்கவோ பயன்படுத்தப்படவில்லை என்பதை உறுதிப்படுத்த விரும்புகிறது.
ஆனால் இந்த ஆண்டின் தொடக்கத்தில் பாதுகாப்புத் துறை, அமெரிக்க இராணுவம் “ஒருங்கிணைப்பதில் நமது எதிரிகள் மீது நமது விளிம்பைத் தக்க வைத்துக் கொள்ள வேண்டும்” என்று கூறியது. [AI]“Axios மற்றும் Reuters இன் அறிக்கைகளின்படி, நிறுவனங்கள் தங்கள் தனிப்பட்ட கொள்கைகளைப் பொருட்படுத்தாமல் AI தொழில்நுட்பத்தைப் பயன்படுத்த விரும்புகின்றன.
“மிக முக்கியமான விஷயங்களை ஒதுக்கி வைக்க நாங்கள் தொடர்ந்து அழுத்தங்களை எதிர்கொள்கிறோம்” என்று AI பாதுகாப்பு ஆராய்ச்சியாளர் மிருனாங்க் சர்மா கடந்த வாரம் ஆந்த்ரோபிக் நிறுவனத்தில் இருந்து பகிரங்கமாக வெளியிடப்பட்ட ராஜினாமா கடிதத்தில் எழுதினார். அவர் ராஜினாமா செய்ய காரணமான குறிப்பிட்ட சம்பவத்தை குறிப்பிடவில்லை, ஆனால், “உலகில் செல்வாக்கு செலுத்தும் திறனுக்கு சமமாக நமது அறிவுத்திறன் வளர வேண்டும், இல்லையெனில் விளைவுகளை நாம் அனுபவிக்க வேண்டும்” என்று எச்சரித்தார்.
AI வழங்குநர்கள் தங்கள் மாதிரிகளை சில சோதனைகளுக்கு உட்படுத்த அல்லது பாதுகாப்பில் முதலீடு செய்ய கட்டாயப்படுத்த வடிவமைக்கப்பட்ட கொள்கைகள் பெரும்பாலும் வெளிப்படுத்தல் தேவைகள் அல்லது கட்டுப்பாடற்ற பரிந்துரைகளில் நீர்த்துப்போகின்றன என்று டாக்டர் போகன் கூறுகிறார்.
“ஊக்குவிப்புகள் விரைவாக நகர்வதற்கு ஆதரவாக உள்ளன, காவலர்களை நிறுவ விருப்பம் இருந்தாலும் கூட,” என்று அவர் கூறுகிறார்.
உலகம் “ஆபத்தில்” இருக்கிறதா?
AI இன் ஆபத்துகள் பற்றிய எச்சரிக்கைகள் சில நேரங்களில் இருத்தலியல் மொழியைப் பயன்படுத்துகின்றன.
முன்னாள் OpenAI ஆராய்ச்சியாளரான Zoe Hitzig, கடந்த வாரம் நியூயார்க் டைம்ஸுக்கு எழுதிய தலையங்கத்தில் நிறுவனத்தின் மூலோபாயத்தைப் பற்றி “ஆழமான முன்பதிவுகளை” மேற்கோள் காட்டினார், ChatGPT இல் விளம்பரங்களைச் சோதிக்கத் தொடங்கும் முடிவு “நம்மிடம் இல்லாத வழிகளில் பயனர்களைக் கையாளும் திறனை உருவாக்குகிறது, அதைத் தடுப்பது ஒருபுறம் இருக்கட்டும்.”
ஆந்த்ரோபிக் நிறுவனத்தில் இருந்து திரு சர்மாவின் ராஜினாமா கடிதம் “உலகம் ஆபத்தில் உள்ளது” என்று எச்சரித்தது.
சில வல்லுநர்கள் அத்தகைய மொழி எதிர்விளைவு என்று கூறுகிறார்கள்.
“பாயின்ட் ஆஃப் நோ ரிடர்ன்’ கட்டமைப்பானது மிகவும் மனச்சோர்வை ஏற்படுத்துவதாக நான் நினைக்கிறேன்,” என்கிறார் டாக்டர் போகன்.
மக்கள் தங்கள் முடிவெடுக்கும் செயல்முறைகளை AI க்கு மாற்றவும், தொழில்நுட்பத்தை தங்கள் வேலைகளில் பயன்படுத்தவும் கற்றுக் கொள்ளும்போது, அவர்கள் சார்புநிலைகளை உருவாக்குகிறார்கள், இது சிக்கலைத் தடுக்க கடினமாகிவிடும் என்று அவர் கவலைப்படுகிறார்.
ஆனால் இறுதியில் மக்கள் தங்கள் சொந்த தேர்வுகள் மற்றும் செயல்களுக்கு பொறுப்பு என்று அவர் கூறுகிறார்.
“இந்த புதிய தொழில்நுட்பத்துடன் சிகிச்சையைப் பற்றி முடிவெடுப்பது உண்மையிலேயே சாத்தியமற்றது என்ற நிலைக்கு நாங்கள் எப்போதாவது வருவோம் என்று நான் நினைக்கவில்லை,” என்று அவர் கூறுகிறார்.
நேஷனல் இன்ஸ்டிடியூட் ஆஃப் ஸ்டாண்டர்ட்ஸ் அண்ட் டெக்னாலஜியின் AI பாதுகாப்பு ஆய்வாளர் கேத்தரின் எல்கின்ஸ், ஒருவரின் தரவைக் கையாளப் பயன்படும் AI சாட்போட்கள் போன்ற சில ஆபத்துக்களில் தான் தவறு இருப்பதாக நம்புவதாகக் கூறுகிறார். ஆனால் அவள் உறுதியாக இருக்கும் வரை, பாதுகாப்பு உடனடி முன்னுரிமையாக இருக்க வேண்டும் என்று அவள் விரும்புகிறாள்.
“தனிப்பட்ட முறையில், தொழில்நுட்பம் சிறப்பாக வராது என்று நினைப்பதை விட, எச்சரிக்கையுடன் தவறிழைப்பதும், AI இன் அபாயங்களைப் பற்றிச் சிந்தித்து நேரத்தைச் செலவிடுவதும் நல்லது என்று நான் உணர்ந்தேன்”.

