536 வாசிப்புகள்
536 வாசிப்புகள்

AI-க்கு நன்றாகத் தெரியும் - ஆனால் நீங்கள் அதை ஏற்றுக்கொண்டால் மட்டுமே.

மூலம் Model Tuning4m2025/02/17
Read on Terminal Reader

மிக நீளமானது; வாசிப்பதற்கு

தகவல்களை அணுகுவதற்கான செலவை AI குறைக்கிறது, ஆனால் முக்கிய அறிவை ஆதரிக்கும் அதன் போக்கு "அறிவு சரிவுக்கு" வழிவகுக்கும், பன்முகத்தன்மையைக் கட்டுப்படுத்தும் மற்றும் புதுமைகளைத் தடுக்கும். AI-உருவாக்கும் உள்ளடக்கத்தை நம்பியிருப்பது பொது நம்பிக்கைகளை எவ்வாறு பாதிக்கிறது என்பதை இந்த ஆய்வு மாதிரியாகக் கொண்டுள்ளது மற்றும் அறிவு வீழ்ச்சியை எதிர்ப்பதற்கான உத்திகளை பரிந்துரைக்கிறது.
featured image - AI-க்கு நன்றாகத் தெரியும் - ஆனால் நீங்கள் அதை ஏற்றுக்கொண்டால் மட்டுமே.
Model Tuning HackerNoon profile picture
0-item

ஆசிரியர்:

(1) ஆண்ட்ரூ ஜே. பீட்டர்சன், போய்ட்டியர்ஸ் பல்கலைக்கழகம் ([email protected]).

இணைப்புகளின் அட்டவணை

சுருக்கம் மற்றும் அறிமுகம்

தொடர்புடைய வேலை

ஊடகம், வடிகட்டி குமிழ்கள் மற்றும் எதிரொலி அறைகள்

நெட்வொர்க் விளைவுகள் மற்றும் தகவல் அடுக்குகள்

மாதிரி சுருக்கம்

எல்.எல்.எம்-களில் அறியப்பட்ட சார்புகள்

அறிவுச் சரிவின் ஒரு மாதிரி

முடிவுகள்

கலந்துரையாடல் மற்றும் குறிப்புகள்


பின் இணைப்பு

வால்களின் அகலத்தை ஒப்பிடுதல்

அறிவுச் சரிவை வரையறுத்தல்

சுருக்கம்

செயற்கை நுண்ணறிவு அதிக அளவிலான தரவைச் செயலாக்கவும், புதிய நுண்ணறிவுகளை உருவாக்கவும், அதிக உற்பத்தித்திறனைத் திறக்கவும் ஆற்றலைக் கொண்டிருந்தாலும், அதன் பரவலான ஏற்றுக்கொள்ளல் எதிர்பாராத விளைவுகளை ஏற்படுத்தக்கூடும். சில அறிவு முறைகளுக்கான அணுகல் செலவைக் குறைப்பதன் மூலம், AI எந்த நிலைமைகளின் கீழ் பொதுமக்களின் புரிதலுக்கு முரண்பாடாக தீங்கு விளைவிக்கும் என்பதை நாங்கள் அடையாளம் காண்கிறோம். பெரிய மொழி மாதிரிகள் பரந்த அளவிலான மாறுபட்ட தரவுகளில் பயிற்சியளிக்கப்பட்டாலும், அவை இயற்கையாகவே விநியோகத்தின் 'மையத்தை' நோக்கி வெளியீட்டை உருவாக்குகின்றன. இது பொதுவாக பயனுள்ளதாக இருக்கும், ஆனால் சுழல்நிலை AI அமைப்புகளை பரவலாக நம்பியிருப்பது "அறிவு சரிவு" என்று நாம் வரையறுக்கும் ஒரு செயல்முறைக்கு வழிவகுக்கும், மேலும் இது புதுமை மற்றும் மனித புரிதல் மற்றும் கலாச்சாரத்தின் செழுமைக்கு தீங்கு விளைவிக்கும் என்று வாதிடுகிறது. இருப்பினும், எந்தத் தரவைப் பயிற்றுவிக்க வேண்டும் என்பதைத் தேர்வுசெய்ய முடியாத AI மாதிரிகளைப் போலல்லாமல், மனிதர்கள் பல்வேறு வகையான அறிவை மதிப்புமிக்கதாகக் கருதினால் அவற்றை மூலோபாய ரீதியாகத் தேடலாம். இதை ஆராய, கற்பவர்கள் அல்லது புதுமைப்பித்தன்களின் சமூகம் பாரம்பரிய முறைகளைப் பயன்படுத்த அல்லது தள்ளுபடி செய்யப்பட்ட AI-உதவி செயல்முறையை நம்பியிருக்க தேர்வுசெய்து, அறிவு சரிவு ஏற்படும் நிலைமைகளை அடையாளம் காணும் ஒரு எளிய மாதிரியை நாங்கள் வழங்குகிறோம். எங்கள் இயல்புநிலை மாதிரியில், AI-உருவாக்கப்பட்ட உள்ளடக்கத்தில் 20% தள்ளுபடி என்பது தள்ளுபடி இல்லாததை விட உண்மையிலிருந்து 2.3 மடங்கு தொலைவில் பொது நம்பிக்கைகளை உருவாக்குகிறது. இறுதியாக, முடிவுகளின் அடிப்படையில், அத்தகைய விளைவுகளை எதிர்ப்பதற்கான கூடுதல் ஆராய்ச்சி வழிமுறைகளை நாங்கள் பரிசீலிக்கிறோம்.

அறிமுகம்

உருவாக்க AI வருவதற்கு முன்பு, அனைத்து உரை மற்றும் கலைப்படைப்புகளும் மனிதர்களால் உருவாக்கப்பட்டன, சில சந்தர்ப்பங்களில் கருவிகள் அல்லது கணினி அமைப்புகளின் உதவியுடன். பெரிய மொழி மாதிரிகள் (LLMகள்) கிட்டத்தட்ட பூஜ்ஜிய மனித முயற்சியுடன் உரையை உருவாக்கும் திறன், படங்கள், ஆடியோ மற்றும் வீடியோவை உருவாக்கும் மாதிரிகளுடன் சேர்ந்து, மனிதர்கள் வெளிப்படும் தரவு AI-உருவாக்கப்பட்ட அல்லது AI-உதவி செயல்முறைகளால் ஆதிக்கம் செலுத்தப்படலாம் என்பதைக் குறிக்கிறது.


செயற்கை உரையில் AI மாதிரிகளை மீண்டும் மீண்டும் பயிற்சி செய்வது "மாதிரி சரிவு" எனப்படும் சீரழிவுக்கு வழிவகுக்கும் என்று ஆராய்ச்சியாளர்கள் குறிப்பிட்டுள்ளனர் (ஷுமைலோவ் மற்றும் பலர், 2023). இந்த கவலையின் தலைகீழ் பக்கத்தில் எங்கள் ஆர்வம் உள்ளது, அதற்கு பதிலாக மனித சமூகத்திற்குள் அறிவு விநியோகத்தில் சமநிலை விளைவுகளில் கவனம் செலுத்துகிறது. எந்த சூழ்நிலையில் AI-உருவாக்கப்பட்ட உள்ளடக்கம் மற்றும் AI-மத்தியஸ்த தகவலுக்கான அணுகல் ஆகியவை மனித சிந்தனை, தகவல் தேடுதல் மற்றும் அறிவின் எதிர்காலத்திற்கு தீங்கு விளைவிக்கும் என்று நாங்கள் கேட்கிறோம்.


AI-உருவாக்கிய தகவல்களின் ஆரம்ப விளைவு குறைவாகவே இருக்கும், மேலும் AI-யின் தீங்குகள் குறித்த தற்போதைய பணிகள், "deepfakes" (Heidari et al., 2023) மூலம் பரப்பப்படும் தவறான தகவல்களின் உடனடி விளைவுகள், AI வழிமுறைகளில் சார்பு (Nazer et al., 2023) மற்றும் அரசியல் தவறான தகவல்கள் (Chen and Shu, 2023) ஆகியவற்றில் சரியாக கவனம் செலுத்துகின்றன. எங்கள் கவனம் ஓரளவு நீண்ட கால எல்லையைக் கொண்டுள்ளது, மேலும் ஓரளவு தத்தெடுப்பை விட பரவலான தாக்கத்தை ஆராய்கிறது.


ஆராய்ச்சியாளர்கள் மற்றும் பொறியியலாளர்கள் தற்போது பல்வேறு அமைப்புகளை உருவாக்கி வருகின்றனர், இதன் மூலம் AI மற்ற மனிதர்களுடனும் தகவல் மூலங்களுடனும் நமது அனுபவத்தை மத்தியஸ்தம் செய்யும். LLM களில் இருந்து கற்றுக்கொள்வது (Chen, Chen, and Lin, 2020), LLM களில் இருந்து தேடல் முடிவுகளை தரவரிசைப்படுத்துதல் அல்லது சுருக்கமாகக் கூறுதல் (Sharma, Liao, and Xiao, 2024), பாரம்பரிய தானியங்குநிரப்புதலுடன் எழுத தேடல் சொற்கள் அல்லது சொற்களை பரிந்துரைத்தல் (Graham, 2023; Chonka, Diepeveen, and Haile, 2023), கூட்டுப்பணியாளர்களை இணைக்க அமைப்புகளை வடிவமைத்தல் (Ball and Lewis, 2018), விக்கிபீடியாவிலிருந்து பெறப்பட்ட அறிவுத் தளங்களை LLM அடிப்படையிலான நிறைவு செய்தல் (Chen, Razniewski, and Weikum, 2023), அரசாங்கத் தரவை விளக்குதல் (Fisher, 2024) மற்றும் பத்திரிகையாளர்களுக்கு உதவுதல் (Opdahl et al., 2023), தொடர்ந்து வளர்ந்து வரும் பட்டியலிலிருந்து சிலவற்றை மட்டுமே மேற்கோள் காட்டுகின்றன.


காலப்போக்கில், இந்த அமைப்புகளைச் சார்ந்திருத்தல் மற்றும் அவற்றுக்கிடையே பன்முகத் தொடர்புகள் இருப்பது, "மறுநிகழ்வின் சாபத்தை" உருவாக்கக்கூடும் (ஷுமைலோவ் மற்றும் பலர், 2023), இதில் மனித அறிவின் அசல் பன்முகத்தன்மைக்கான நமது அணுகல் பகுதியளவு மற்றும் குறுகிய பார்வைகளின் துணைக்குழுவால் பெருகிய முறையில் மத்தியஸ்தம் செய்யப்படுகிறது. LLM-அடிப்படையிலான அமைப்புகளின் அதிகரித்து வரும் ஒருங்கிணைப்புடன், பயிற்சித் தரவுகளில் பொதுவாகக் காணப்பட்ட சில பிரபலமான ஆதாரங்கள் அல்லது நம்பிக்கைகள் பொது மனநிலையில் (மற்றும் பயிற்சித் தரவுகளுக்குள்) வலுப்படுத்தப்படலாம், அதே நேரத்தில் பிற "நீண்ட வால்" கருத்துக்கள் புறக்கணிக்கப்பட்டு இறுதியில் மறக்கப்படுகின்றன.


இத்தகைய செயல்முறை 'எக்கோ சேம்பர்' அல்லது தகவல் அடுக்கு விளைவு மூலம் வலுப்படுத்தப்படலாம், இதில் இந்த வரையறுக்கப்பட்ட தகவல் தொகுப்பை மீண்டும் மீண்டும் வெளிப்படுத்துவது, புறக்கணிக்கப்பட்ட, கவனிக்கப்படாத அறிவின் வால்கள் சிறிய மதிப்புடையவை என்று தனிநபர்களை நம்ப வைக்கிறது. சில வகையான தகவல்களை அணுகுவதற்கான செலவை AI தீவிரமாகக் குறைக்கும் அளவிற்கு, அது "தெருவிளக்கு விளைவு" மூலம் மேலும் தீங்கு விளைவிக்கும், இதில் ஒளிரும் பகுதியின் கீழ் விகிதாசாரமற்ற அளவு தேடல் செய்யப்படுகிறது, ஏனெனில் அது ஒருவரின் சாவிகளைக் கொண்டிருக்க அதிக வாய்ப்புள்ளது, ஆனால் அங்கு பார்ப்பது எளிதானது. மனித அறிவின் வால்களைக் குறைப்பது நியாயத்தன்மை, பன்முகத்தன்மையைச் சேர்ப்பது, புதுமையில் இழந்த லாபங்கள் மற்றும் மனித கலாச்சாரத்தின் பாரம்பரியத்தைப் பாதுகாத்தல் உள்ளிட்ட பல்வேறு கவலைகளில் குறிப்பிடத்தக்க விளைவுகளை ஏற்படுத்தும் என்று நாங்கள் வாதிடுகிறோம்.


இருப்பினும், எங்கள் உருவகப்படுத்துதல் மாதிரியில், மனிதர்கள் தங்கள் தகவல் மூலங்களை தீவிரமாக நிர்வகிப்பதில் மூலோபாயமாக இருப்பதற்கான சாத்தியக்கூறுகளையும் நாங்கள் கருதுகிறோம். நாங்கள் வாதிடுவது போல, AI-உருவாக்கிய உள்ளடக்கத்தால் புறக்கணிக்கப்படும் அறிவுப் பகுதிகளில் குறிப்பிடத்தக்க மதிப்பு இருந்தால், சில தனிநபர்கள் சாத்தியமான மதிப்பைப் பற்றி போதுமான அளவு அறிந்திருப்பதாகக் கருதி, ஆதாயங்களை உணர கூடுதல் முயற்சியை மேற்கொள்ளலாம்.

முக்கிய பங்களிப்புகளின் சுருக்கம்

சில வகையான தகவல்களை அணுகுவதற்கான செலவை மட்டுமே குறைத்தாலும், AI "அறிவு சரிவுக்கு" வழிவகுக்கும், அறிவின் நீண்ட வால்களைப் புறக்கணித்து, தலைமுறைகளாக சீரழிந்த குறுகிய கண்ணோட்டத்தை உருவாக்கும் ஒரு இயக்கவியலை நாங்கள் அடையாளம் காண்கிறோம். மலிவான AI தொழில்நுட்பத்தை நம்புவதா அல்லது உண்மையான அறிவின் முழு விநியோகத்திலிருந்து மாதிரிகளில் முதலீடு செய்வதா என்பதை தனிநபர்கள் தீர்மானிக்கும் ஒரு நேர்மறையான அறிவுத் தெளிப்பு மாதிரியை நாங்கள் வழங்குகிறோம். சமூகத்திற்குள் அறிவு சரிவைத் தடுக்க தனிநபர்கள் போதுமான அளவு தகவல் பெற்றுள்ள நிலைமைகளை உருவகப்படுத்துதல்கள் மூலம் நாங்கள் ஆராய்வோம். இறுதியாக, AI-சகாப்தத்தில் அறிவு சரிவைத் தடுப்பதற்கான சாத்தியமான தீர்வுகளின் கண்ணோட்டத்துடன் முடிக்கிறோம்.



Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks