Popular Posts

ஆந்த்ரோபிக் தனக்கென ஒரு பொறியை உருவாக்கியது. தொழில்நுட்ப நெருக்கடி

ஆந்த்ரோபிக் தனக்கென ஒரு பொறியை உருவாக்கியது. தொழில்நுட்ப நெருக்கடி


வெள்ளிக்கிழமை பிற்பகலில், இந்த நேர்காணல் நடந்து கொண்டிருந்தபோது, ​​​​என் கணினித் திரையில் ஒரு செய்தி எச்சரிக்கை மின்னியது: டிரம்ப் நிர்வாகம் 2021 இல் டாரியோ அமோடியால் நிறுவப்பட்ட சான் பிரான்சிஸ்கோ AI நிறுவனமான ஆந்த்ரோபிக் உடனான உறவை முறித்துக் கொண்டது. அமெரிக்க குடிமக்களை வெகுஜன கண்காணிப்பு அல்லது மனித உள்ளீடு இல்லாமல் இலக்குகளைத் தேர்ந்தெடுத்து தாக்கக்கூடிய தன்னாட்சி ஆயுதம் ஏந்திய ட்ரோன்களுக்கு Anthropic இன் தொழில்நுட்பத்தை பயன்படுத்த அனுமதிக்க மறுத்ததை அடுத்து, பாதுகாப்பு செயலர் Pete Hegseth, பெண்டகனுடன் வணிகம் செய்வதிலிருந்து நிறுவனத்தை தடுப்புப்பட்டியலில் சேர்க்க ஒரு தேசிய பாதுகாப்பு சட்டத்தை செயல்படுத்தினார்.

இது முடியை உயர்த்தும் வரிசையாக இருந்தது. ட்ரூத் சோஷியலில் “மானுடவியல் தொழில்நுட்பத்தின் அனைத்துப் பயன்பாட்டையும் உடனடியாக நிறுத்த வேண்டும்” என்று ஒவ்வொரு ஃபெடரல் ஏஜென்சிக்கும் ஜனாதிபதி டிரம்ப் அறிவுறுத்திய பின்னர், ஆந்த்ரோபிக் ஒப்பந்தங்களில் $200 மில்லியன் வரை இழக்கலாம் மற்றும் பிற பாதுகாப்பு ஒப்பந்தக்காரர்களுடன் பணிபுரிய தடை விதிக்கப்படும். (ஆன்ட்ரோபிக் பென்டகனை நீதிமன்றத்தில் சவால் செய்யப் போவதாகக் கூறியது.)

மேக்ஸ் டெக்மார்க் ஒரு தசாப்தத்தின் பெரும்பகுதியை எச்சரித்துள்ளார், மேலும் மேலும் சக்திவாய்ந்த AI அமைப்புகளை உருவாக்குவதற்கான பந்தயம் அவற்றை நிர்வகிக்கும் உலகின் திறனை விட அதிகமாக உள்ளது. MIT இயற்பியலாளர் 2014 இல் ஃபியூச்சர் ஆஃப் லைஃப் இன்ஸ்டிட்யூட்டை நிறுவினார் மற்றும் ஒரு திறந்த கடிதத்தை ஒழுங்கமைக்க உதவினார் – இது இறுதியில் எலோன் மஸ்க் உட்பட 33,000 க்கும் மேற்பட்டவர்களால் கையெழுத்திடப்பட்டது – மேம்பட்ட AI வளர்ச்சியை நிறுத்துமாறு அழைப்பு விடுத்தது.

மனிதாபிமான நெருக்கடி பற்றிய அவரது பார்வை ஆதாரமற்றது: நிறுவனம், அதன் போட்டியாளர்களைப் போலவே, அதன் சொந்த அவலத்திற்கு விதைகளை விதைத்துள்ளது. டெக்மார்க்கின் வாதம் பென்டகனிடம் இருந்து தொடங்கவில்லை, ஆனால் பல ஆண்டுகளுக்கு முன்பு எடுக்கப்பட்ட முடிவுடன் – ஒரு தேர்வு, தொழில் முழுவதும் பகிரப்பட்டது, பிணைப்பு ஒழுங்குமுறையை எதிர்ப்பது. ஆந்த்ரோபிக், ஓபன்ஏஐ, கூகுள் டீப் மைண்ட் மற்றும் பிற நிறுவனங்கள் தங்களை பொறுப்புடன் கட்டுப்படுத்துவதாக நீண்ட காலமாக உறுதியளித்துள்ளன. ஆந்த்ரோபிக் இந்த வாரம் அதன் சொந்த பாதுகாப்பு உறுதிமொழியின் மையக் கொள்கையை கைவிட்டது – பெருகிய முறையில் சக்திவாய்ந்த AI அமைப்புகளுக்கு தீங்கு விளைவிக்காது என்று நிறுவனம் நம்பும் வரை அவற்றை வெளியிட மாட்டோம் என்று உறுதியளித்தது.

இப்போது, ​​விதிமுறைகள் இல்லாத நிலையில், இந்த வீரர்களைப் பாதுகாப்பது அதிகம் இல்லை என்று டெக்மார்க் கூறுகிறார். நீளம் மற்றும் தெளிவுக்காகத் திருத்தப்பட்ட அந்த நேர்காணலில் இருந்து மேலும் இதோ. வரும் வாரத்தில் TechCrunch இன் StrictlyVC பதிவிறக்க போட்காஸ்டில் முழு உரையாடலையும் கேட்கலாம்.

ஆந்த்ரோபிக் பற்றிய இந்தச் செய்தியைப் பார்த்தபோது, ​​உங்கள் முதல் எதிர்வினை என்ன?

நரகத்திற்கான பாதை நல்ல நோக்கத்துடன் அமைக்கப்பட்டுள்ளது. ஒரு தசாப்தத்திற்கு முன்பு, புற்றுநோயைக் குணப்படுத்தவும், அமெரிக்காவில் செழிப்பை அதிகரிக்கவும், அமெரிக்காவை வலிமையாக்கவும் செயற்கை நுண்ணறிவை எவ்வாறு உருவாக்கப் போகிறோம் என்று மக்கள் மிகவும் உற்சாகமாக இருந்ததை நினைத்துப் பார்ப்பது மிகவும் சுவாரஸ்யமானது. இப்போது நாங்கள் இங்கே இருக்கிறோம், ஏனெனில் இந்த நிறுவனம் மீது அமெரிக்க அரசாங்கம் கோபமாக உள்ளது, ஏனெனில் அது அமெரிக்கர்களின் உள்நாட்டு கண்காணிப்புக்கு AI பயன்படுத்தப்படுவதை விரும்பவில்லை, மேலும் அது மனித உள்ளீடு இல்லாமல் – யாரைக் கொல்ல வேண்டும் என்பதைத் தீர்மானிக்கக்கூடிய கொலையாளி ரோபோக்களைக் கொண்டிருக்க விரும்பவில்லை.

தொழில்நுட்ப நெருக்கடி நிகழ்வு

சான் பிரான்சிஸ்கோ, CA
|
அக்டோபர் 13-15, 2026

ஆந்த்ரோபிக் தனது முழு அடையாளத்தையும் பாதுகாப்பு-முதல் AI நிறுவனமாகப் பயன்படுத்தியுள்ளது, இருப்பினும் அது பாதுகாப்பு மற்றும் உளவுத்துறை நிறுவனங்களுடன் ஒத்துழைத்து வருகிறது. [dating back to at least 2024]. இது முற்றிலும் முரணானது என்று நினைக்கிறீர்களா?

இது முரண்பாடானது. இதைப் பற்றி நான் சற்று கிண்டலான முன்னோக்கைக் கொடுக்கலாம் என்றால் – ஆம், ஆந்த்ரோபிக் பாதுகாப்பைப் பற்றி சந்தைப்படுத்துவதில் மிகவும் சிறப்பாக உள்ளது. ஆனால் நீங்கள் உண்மையில் உரிமைகோரல்களைக் காட்டிலும் உண்மைகளைப் பார்த்தால், ஆந்த்ரோபிக், ஓபன்ஏஐ, கூகுள் டீப் மைண்ட் மற்றும் எக்ஸ்ஏஐ ஆகியவை பாதுகாப்பைப் பற்றி எவ்வளவு அக்கறை காட்டுகின்றன என்பதைப் பற்றி அதிகம் பேசியிருப்பதைக் காண்பீர்கள். அவர்களில் யாரும் மற்ற தொழில்களைப் போல பிணைப்பு பாதுகாப்பு ஒழுங்குமுறையை ஆதரிக்க முன்வரவில்லை. மேலும் இந்த நான்கு நிறுவனங்களும் இப்போது தங்கள் வாக்குறுதியை மீறிவிட்டன. முதலில் எங்களிடம் கூகுள் இருந்தது – இந்த பெரிய முழக்கம், ‘தீமையாக இருக்காதே.’ பின்னர் அவர் அதை கைவிட்டார். பின்னர் அவர்கள் மற்றொரு நீண்ட உறுதிமொழியை விட்டுவிட்டனர், இது AI உடன் தீங்கு விளைவிக்காது என்று அவர்கள் உறுதியளித்தனர். கண்காணிப்பு மற்றும் ஆயுதங்களுக்காக AI ஐ விற்க அவர்கள் அதை கைவிட்டனர். OpenAI தனது பணி அறிக்கையில் இருந்து பாதுகாப்பு என்ற வார்த்தையை நீக்கியுள்ளது. xAI தனது முழு பாதுகாப்புக் குழுவையும் பணிநீக்கம் செய்தது. இப்போது ஆந்த்ரோபிக், வாரத்தின் முற்பகுதியில், அதன் மிக முக்கியமான பாதுகாப்பு உறுதிப்பாட்டைக் கைவிட்டது – சக்திவாய்ந்த AI அமைப்புகளுக்கு தீங்கு விளைவிக்காது என்று அவர்கள் நம்பும் வரை அவற்றை வெளியிட மாட்டோம் என்ற உறுதிமொழி.

இவ்வளவு பெரிய பாதுகாப்பு கடமைகளை செய்த நிறுவனங்கள் இந்த சூழ்நிலையில் எப்படி முடிந்தது?

இந்த நிறுவனங்கள் அனைத்தும், குறிப்பாக OpenAI மற்றும் Google DeepMind, ஆனால் குறைந்த அளவிற்கு ஆந்த்ரோபிக் போன்றவை, AI இன் ஒழுங்குமுறைக்கு எதிராக தொடர்ந்து பரப்புரை செய்து, ‘எங்களை நம்புங்கள், நாங்கள் நம்மை நாமே கட்டுப்படுத்தப் போகிறோம்’ என்று கூறியது. மற்றும் அவர்கள் வெற்றிகரமாக பரப்புரை செய்தனர். எனவே தற்போது அமெரிக்காவில் உள்ள சாண்ட்விச்சை விட AI அமைப்புகளில் குறைவான கட்டுப்பாடுகள் எங்களிடம் உள்ளன. உங்களுக்குத் தெரியும், நீங்கள் ஒரு சாண்ட்விச் கடையைத் திறக்க விரும்பினால், சுகாதார ஆய்வாளர் சமையலறையில் 15 எலிகளைக் கண்டால், அதை சரிசெய்யும் வரை அவர் உங்களை எந்த சாண்ட்விச்களையும் விற்க விடமாட்டார். ஆனால், ‘கவலைப்படாதே, நான் சாண்ட்விச் விற்கப் போவதில்லை, 11 வயது சிறுமிகளுக்கு AI தோழிகளை விற்கப் போகிறேன், அவர்கள் கடந்த காலங்களில் தற்கொலை செய்து கொண்டுள்ளனர், பின்னர் அமெரிக்க அரசாங்கத்தை கவிழ்க்கக்கூடிய சூப்பர் இன்டெலிஜென்ஸ் என்று ஒன்றை வெளியிடப் போகிறேன், ஆனால் நான் என்னைப் பற்றி நன்றாக உணர்கிறேன்’ – ‘சாண்ட்விக்கா செல்ல வேண்டாம்’

உணவு பாதுகாப்பு ஒழுங்குமுறை உள்ளது மற்றும் AI கட்டுப்பாடு இல்லை.

இந்த நிறுவனங்கள் அனைத்தும் உண்மையில் இதில் குற்றவாளிகள் என்று நான் நினைக்கிறேன். ஏனென்றால், அவர்கள் எப்படி மிகவும் பாதுகாப்பாகவும், நல்ல நோக்கத்துடனும் இருக்கப் போகிறோம் என்று அவர்கள் கொடுத்த வாக்குறுதிகளை எல்லாம் கடைப்பிடித்து, அதை ஒன்றாக இணைத்து, பின்னர் அரசாங்கத்திடம் சென்று, ‘தயவுசெய்து எங்கள் தன்னார்வ உறுதிமொழிகளை எடுத்து, எங்கள் மிகவும் பயனற்ற போட்டியாளர்களைக் கூட பிணைக்கும் அமெரிக்க சட்டமாக மாற்றவும்’ என்று சொன்னால், அது நடந்திருக்கும். நாங்கள் ஒரு முழுமையான ஒழுங்குமுறை வெற்றிடத்தில் இருக்கிறோம். முழுமையான கார்ப்பரேட் பொது மன்னிப்பு இருந்தால் என்ன நடக்கும் என்பது எங்களுக்குத் தெரியும்: நீங்கள் தாலிடோமைடைப் பெறுவீர்கள், புகையிலை நிறுவனங்கள் குழந்தைகள் மீது சிகரெட்டைத் திணிக்கிறீர்கள், நுரையீரல் புற்றுநோயை உண்டாக்கும் கல்நார் கிடைக்கும். எனவே, AI உடன் என்ன செய்வது, எது சரியில்லை என்பதைச் சட்டங்களுக்கு அவர்கள் சொந்தமாக எதிர்ப்பது இப்போது அவர்களைத் தொந்தரவு செய்வது ஒருவித முரண்பாடான விஷயம்.

அமெரிக்கர்களைக் கொல்ல AI ஐ உருவாக்குவதற்கு எதிராக தற்போது எந்தச் சட்டமும் இல்லை, எனவே அரசாங்கம் திடீரென்று அதைக் கோரலாம். நிறுவனங்களே முதலில் வெளியே வந்து, ‘எங்களுக்கு இந்தச் சட்டம் வேண்டும்’ என்று கூறியிருந்தால், இந்தப் பிரச்னையில் சிக்கியிருக்க மாட்டார்கள். அவர் உண்மையில் காலில் தன்னைத்தானே சுட்டுக் கொண்டார்.

நிறுவனங்களின் எதிர் நடவடிக்கை எப்போதும் சீனாவுடன் போட்டியிடுவதாகும் – அமெரிக்க நிறுவனங்கள் அதைச் செய்யாவிட்டால், பெய்ஜிங் அதைச் செய்யும். அந்த லாஜிக் சரியா?

அதை அலசுவோம். AI நிறுவனங்களுக்கான பரப்புரையாளர்களிடமிருந்து மிகவும் பொதுவான விஷயம் – அவர்கள் இப்போது சிறந்த நிதியுதவி மற்றும் புதைபடிவ எரிபொருள் தொழில், மருந்துத் தொழில் மற்றும் இராணுவ-தொழில்துறை வளாகம் ஆகியவற்றின் பரப்புரையாளர்களை விட அதிகமாக உள்ளனர் – யாராவது எந்த வகையான ஒழுங்குமுறையை முன்மொழிந்தாலும், ‘ஆனால் சீனா’ என்று கூறுகிறார்கள். எனவே அதைப் பார்ப்போம். AI தோழிகளுக்கு முற்றிலும் தடை விதிக்க சீனா தயாராகி வருகிறது. வயது வரம்புகள் மட்டுமல்ல – அனைத்து மானுடவியல் AI ஐயும் தடை செய்ய அவர்கள் பரிசீலித்து வருகின்றனர். ஏன்? அவர்கள் அமெரிக்காவை மகிழ்விக்க விரும்புவதால் அல்ல, மாறாக இது சீன இளைஞர்களை தொந்தரவு செய்வதாகவும் சீனாவை பலவீனப்படுத்துவதாகவும் அவர்கள் கருதுகிறார்கள். வெளிப்படையாக, இது அமெரிக்க இளைஞர்களையும் பாதிப்படையச் செய்கிறது.

அதிபுத்திசாலித்தனத்தை உருவாக்க நாம் போட்டியிட வேண்டும் என்று மக்கள் கூறும்போது, ​​சீனாவுக்கு எதிராக வெற்றி பெற முடியும் – உண்மையில் சூப்பர் இன்டெலிஜென்ஸை எவ்வாறு கட்டுப்படுத்துவது என்று நமக்குத் தெரியாதபோது, ​​இயல்புநிலை விளைவு என்னவென்றால், மனிதகுலம் பூமியின் கட்டுப்பாட்டை அன்னிய இயந்திரங்களுக்கு இழப்பதாகும் – என்ன யூகிக்க? சீன கம்யூனிஸ்ட் கட்சி உண்மையில் கட்டுப்பாட்டை விரும்புகிறது. சீன அரசாங்கத்தை கவிழ்க்கும் சில சீன AI நிறுவனத்தை ஜி ஜின்பிங் பொறுத்துக்கொள்ளப் போகிறார் என்று யார் தங்கள் சரியான மனதில் நினைக்கிறார்கள்? வழி இல்லை. சூப்பர் இன்டெலிஜென்ஸை உருவாக்கிய முதல் அமெரிக்க நிறுவனத்தால் தூக்கியெறியப்பட்டால் அது அமெரிக்க அரசாங்கத்திற்கும் மிகவும் மோசமானது. இது தேசிய பாதுகாப்புக்கு அச்சுறுத்தலாகும்.

இது ஒரு கட்டாய கட்டமைப்பாகும் – ஒரு தேசிய பாதுகாப்பு அச்சுறுத்தலாக சூப்பர் உளவுத்துறை, ஒரு சொத்து அல்ல. இந்தக் காட்சி வாஷிங்டனில் பிரபலமடைந்து வருவதைப் பார்க்கிறீர்களா?

தேசிய பாதுகாப்பு சமூகத்தில் உள்ளவர்கள் டேரியோ அமோடி தனது பார்வையை விவரிப்பதைக் கேட்டால் – அவர் ஒரு பிரபலமான உரையை வழங்கினார், அங்கு அவர் ஒரு டேட்டா சென்டரில் திறமையான தேசத்தை விரைவில் உருவாக்குவோம் என்று அவர் கூறுகிறார் – அவர்கள் சிந்திக்கத் தொடங்கலாம்: காத்திருங்கள், டேரியோ ‘தேசம்’ என்ற வார்த்தையைப் பயன்படுத்தினாரா? நான் கண்காணிக்கும் அதே அச்சுறுத்தல் பட்டியலில் டேட்டா சென்டரில் திறமை உள்ள அந்த நாட்டை நான் சேர்க்க வேண்டும், ஏனெனில் இது அமெரிக்க அரசாங்கத்திற்கு அச்சுறுத்தலாகத் தெரிகிறது. மிக விரைவில், அமெரிக்க தேசிய பாதுகாப்பு சமூகத்தில் உள்ள போதுமான மக்கள், கட்டுப்பாடற்ற சூப்பர் இன்டெலிஜென்ஸ் ஒரு அச்சுறுத்தல், ஒரு கருவி அல்ல என்பதை உணரப் போகிறார்கள் என்று நான் நினைக்கிறேன். இது முற்றிலும் பனிப்போரை ஒத்ததாகும். சோவியத் யூனியனுக்கு எதிராக பொருளாதார மற்றும் இராணுவ மேலாதிக்கத்திற்கான போட்டி இருந்தது. இரண்டாவது பந்தயத்தில் கூட ஈடுபடாமல் அமெரிக்கர்களாகிய நாங்கள் அந்த பந்தயத்தில் வெற்றி பெற்றோம், இது மற்ற வல்லரசில் யார் அதிக அணுசக்தி பள்ளங்களை வைக்க முடியும் என்பதைப் பார்ப்பது. அது வெறும் தற்கொலை என்பதை மக்கள் உணர்ந்தனர். யாரும் வெற்றி பெறுவதில்லை. அதே தர்க்கம் இங்கேயும் பொருந்தும்.

பரந்த அளவில் AI வளர்ச்சியின் வேகத்திற்கு இவை அனைத்தும் என்ன அர்த்தம்? நீங்கள் விவரிக்கும் அமைப்புகளுடன் நாங்கள் எவ்வளவு நெருக்கமாக இருக்கிறோம் என்று நினைக்கிறீர்கள்?

ஆறு ஆண்டுகளுக்கு முன்பு, AI இல் உள்ள ஒவ்வொரு நிபுணரும் AI யிலிருந்து பல தசாப்தங்கள் தொலைவில் இருக்கிறோம் என்று கணித்துள்ளனர், அது மனித மட்டத்தில் மொழி மற்றும் அறிவாற்றலில் தேர்ச்சி பெற முடியும் – ஒருவேளை 2040, ஒருவேளை 2050. அவை அனைத்தும் தவறாக இருந்தன, ஏனென்றால் அவர் ஏற்கனவே நம்மிடம் இருக்கிறார். உயர்நிலைப் பள்ளி மட்டத்திலிருந்து கல்லூரி நிலை வரை, முனைவர் பட்டம் முதல் பல்கலைக்கழகப் பேராசிரியர் நிலை வரை சில துறைகளில் AI மிக வேகமாக முன்னேறுவதை நாம் கண்டிருக்கிறோம். கடந்த ஆண்டு, சர்வதேச கணித ஒலிம்பியாட் போட்டியில் AI தங்கப் பதக்கம் வென்றது, இது மனித பணிகளைப் போலவே கடினமானது. நான் சில மாதங்களுக்கு முன்பு யோசுவா பெங்கியோ, டான் ஹென்ட்ரிக்ஸ் மற்றும் பிற சிறந்த AI ஆராய்ச்சியாளர்களுடன் இணைந்து AGI க்கு கடுமையான வரையறையை அளித்து ஒரு கட்டுரையை எழுதினேன். அதன்படி, GPT-4 அங்கு 27% பங்கைக் கொண்டிருந்தது. GPT-5 அங்கு 57% இருந்தது. எனவே நாங்கள் இன்னும் அங்கு இல்லை, ஆனால் 27% முதல் 57% வரை செல்கிறோம், இது அதிக நேரம் எடுக்காது என்று உடனடியாக அறிவுறுத்துகிறது.

நேற்று எம்.ஐ.டி.யில் என் மாணவர்களுக்கு நான் விரிவுரை செய்தபோது, ​​நான்கு வருடங்கள் எடுத்தாலும், படிப்பை முடித்த பிறகு, அவர்களுக்கு வேலை கிடைக்காது என்று கூறினேன். அதற்கான தயாரிப்பைத் தொடங்குவது நிச்சயமாக மிக விரைவில் இல்லை.

ஆந்த்ரோபிக் இப்போது தடுப்புப்பட்டியலில் சேர்க்கப்பட்டுள்ளது. அடுத்து என்ன நடக்கும் என்று பார்க்க ஆவலாக இருக்கிறேன் – மற்ற AI ஜாம்பவான்கள் அவர்களுக்கு எதிராக நின்று, இதையும் செய்ய வேண்டாம் என்று சொல்வார்களா? அல்லது XAI போன்ற ஒருவர் கையை உயர்த்தி, அந்த ஒப்பந்தத்தை ஆந்த்ரோபிக் விரும்பவில்லை, நாங்கள் அதை எடுத்துக்கொள்வோம் என்று கூறுகிறார்களா? [Editor’s note: Hours after the interview, OpenAI announced its own deal with the Pentagon.]

நேற்றிரவு, சாம் ஆல்ட்மேன் வெளியே வந்து, அவர் மானுடத்துடன் நிற்பதாகவும், அவர்களின் சிவப்புக் கோடுகளும் இருப்பதாகவும் கூறினார். அப்படிச் சொல்லும் தைரியம் அவரைப் பாராட்டுகிறேன். இந்த நேர்காணலைத் தொடங்கியபோது, ​​கூகுள் எதுவும் சொல்லவில்லை. அவர்கள் அமைதியாக இருந்தால், அது ஒரு நிறுவனமாக அவர்களுக்கு நம்பமுடியாத சங்கடமாக இருக்கும் என்று நான் நினைக்கிறேன், மேலும் அவர்களது ஊழியர்களில் பலர் இதைப் போலவே உணருவார்கள். நாங்கள் இதுவரை xAI இலிருந்து எதையும் கேட்கவில்லை. எனவே இது பார்ப்பதற்கு சுவாரஸ்யமாக இருக்கும். அடிப்படையில், ஒவ்வொருவரும் தங்கள் உண்மையான நிறத்தைக் காட்ட வேண்டிய தருணம் இது.

இதன் விளைவாக உண்மையில் நன்றாக இருக்கும் பதிப்பு உள்ளதா?

ஆம், அதனால்தான் நான் உண்மையில் ஒரு வித்தியாசமான முறையில் நம்பிக்கையுடன் இருக்கிறேன். அத்தகைய ஒரு தெளிவான தேர்வு இங்கே. AI நிறுவனங்களை மற்ற நிறுவனங்களைப் போல நடத்தத் தொடங்கினால் – கார்ப்பரேட் மன்னிப்பு ஒருபுறம் இருக்க – பின்னர் அவர்கள் மிகவும் சக்திவாய்ந்த ஒன்றை வெளியிடுவதற்கு முன்பு மருத்துவ பரிசோதனைகள் போன்றவற்றை தெளிவாகச் செய்ய வேண்டும், மேலும் அதை எவ்வாறு கட்டுப்படுத்துவது என்பது அவர்களுக்குத் தெரியும் என்பதை சுயாதீன நிபுணர்கள் காட்ட வேண்டும். இருத்தலியல் கவலைகள் இல்லாமல், AI இன் அனைத்து நல்ல விஷயங்களுடன் ஒரு பொற்காலத்தைப் பெறுகிறோம். இப்போது நாம் செல்லும் பாதை இதுவல்ல. ஆனால் அது நடக்கலாம்.



Leave a Reply

Your email address will not be published. Required fields are marked *