தனிப்பட்ட AI பயன்பாடு இன்னும் தீர்க்கப்படாத தனியுரிமை அபாயங்களுடன் மோதுகிறது

நுகர்வோர் சாட்பாட்களை பல்துறை நம்பகத்தன்மை கொண்ட உதவியாளர்களாக அதிகமாக மாற்றி வருகின்றனர். அவர்கள் நிதி, சுகாதாரக் கேள்விகள், உணர்ச்சி அழுத்தம், மற்றும் தனிப்பட்ட முடிவெடுப்புகள் குறித்து உதவி கேட்கிறார்கள். ஆனால் அந்த நடத்தை சாதாரணமாகி வருவதுடன், ஒரு கடினமான உண்மை மேலும் தெளிவாகிறது: பலர், நீண்டகால தனியுரிமை எல்லைகள் இன்னும் தெளிவில்லாத அமைப்புகளிடம் மிகவும் உணர்வுப்பூர்வமான தகவல்களைப் பகிர்ந்து கொண்டிருக்கலாம்.

ஒரு புதிய ZDNET அறிக்கை இந்த முக்கியக் கவலையை வெளிப்படுத்துகிறது. AI அமைப்புகளில் தனிப்பட்ட தகவல்களை ஊட்டுவதன் விளைவுகளை ஆய்வு செய்யும் ஆராய்ச்சியாளர்கள் கூறுவதாவது, பிரச்சினை இப்போது நிறுவனங்கள் என்ன சேகரிக்கின்றன என்பதிலேயே இல்லை; அந்தத் தகவல் ஒரு model ecosystem-இன் உள்ளே சென்றுவிட்ட பிறகு, பயனர்கள் அதை நம்பகமாகக் கட்டுப்படுத்த முடியாததில்தான். Stanford’s Institute for Human-Centered Artificial Intelligence-இல் privacy and data policy fellow ஆன Jennifer King, ZDNET-க்கு “you just can't control where the information goes,” என்று கூறி, அது பயனர்கள் எதிர்பாராத வழிகளில் கசியக்கூடும் என்று எச்சரித்தார்.

சாட்பாட்கள் மக்களை தொடர்ந்து பேசச் செய்வதற்காக வடிவமைக்கப்பட்டுள்ளன

வடிவமைப்பே இந்த ஆபத்தை அதிகரிக்கிறது. பெரிய மொழி மாதிரி இடைமுகங்கள் உரையாடலான, பதிலளிப்பான, மற்றும் உறுதியளிக்கும் வகையில் உருவாக்கப்பட்டுள்ளன. அதுவே அவற்றை பயனுள்ளதாக்குகிறது; ஆனால் மக்கள் வேறு இடத்தில் பகிர தயங்கக்கூடிய தகவல்களை வெளிக்கொணருவதிலும் அவற்றை மிகவும் செயல்திறன் மிக்கதாக மாற்றுகிறது. ZDNET இந்த பிரச்சினையை சாதாரண வார்த்தைகளில் முன்வைக்கிறது, அவை இப்போது மேலும் யதார்த்தமாகி வருகின்றன: மக்கள் lab results-ஐ விளக்க, தனிப்பட்ட நிதிகளை ஒழுங்குபடுத்த, அல்லது இரவு நேரக் கவலைக்காலங்களில் ஆலோசனை பெற சாட்பாட்களைப் பயன்படுத்துகிறார்கள்.

அத்தகைய பயன்பாடு இப்போது niche அல்ல. 2025 Elon University ஆய்வில் US adults-இல் சிறிது அதிகமான பாதி பேர் large language models-ஐ பயன்படுத்துகிறார்கள் எனக் கண்டறியப்பட்டதாக கட்டுரை குறிப்பிடுகிறது. அந்த அளவிலான ஏற்றுக்கொள்ளல் நீடித்தால், ஒருகாலத்தில் எல்லைப் பிரச்சினைகளாகக் கருதப்பட்ட தனியுரிமை கேள்விகள் இப்போது mass-market நடத்தை குறித்து பேசுகின்றன. பிரச்சினை என்பது சில power users அதிகமாக தகவல் பகிர்கிறார்களா என்பதல்ல. பொதுமக்களுக்கு இன்னும் சரியாகப் புரியாத அமைப்புகளைச் சுற்றியே ஒரு முக்கியமான டிஜிட்டல் பழக்கம் உருவாகி வருகிறதா என்பதே கேள்வி.

இதன் விளைவாக ஒரு புதிய பொருத்தமின்மை உருவாகிறது. பயனர்கள் சாட்பாட்களை தனிப்பட்டதாக உணரப்படும் கருவிகளாக அனுபவிக்கலாம், ஆனால் அவற்றின் பின்னணியில் உள்ள சட்ட, தொழில்நுட்ப, மற்றும் நிறுவன உண்மைகள் மிக அதிகமாக சிக்கலானவை. இடைமுகம் நெருக்கமாகத் தோன்றுகிறது. தரவு சூழல் அவ்வாறு இல்லாமலும் இருக்கலாம்.

மெமரைகேஷன், எடுப்பு, மற்றும் கண்காணிப்பு இன்னும் திறந்த கவலைகளாக உள்ளன

மிகக் கடினமான கேள்விகளில் ஒன்று, model-கள் உணர்வுப்பூர்வமான தகவல்களை நினைவில் வைத்துக்கொள்ள முடியுமா, மேலும் அந்தத் தகவல் பின்னர் முழுவதும் அல்லது பகுதியளவில் மீட்க முடியுமா என்பதுதான். ZDNET குறிப்பிடுவதாவது, OpenAI-க்கு எதிரான The New York Times வழக்கில் உள்ள முக்கியப் புகார்களில் ஒன்று memorization; அதேசமயம் OpenAI 2024-இல் “regurgitation is a rare bug” என்று கூறி, அதை நீக்க முயற்சித்து வருவதாக தெரிவித்தது.

மொத்தப் புள்ளி என்னவென்றால், நிச்சயமற்ற தன்மையே ஆபத்தின் ஒரு பகுதியாகும். ஒவ்வொரு தனிப்பட்ட வெளிப்பாடும் சொல்வழக்காகவே மீண்டும் தோன்றும் என்பதை நிரூபிக்காமல் கூட, ஆராய்ச்சியாளர்கள் எச்சரிக்கையை வலியுறுத்தலாம். memorization எவ்வளவு அடிக்கடி நடக்கிறது, எந்த சூழ்நிலைகளில் தகவல் வெளிப்படலாம், அல்லது பாதுகாப்புகள் உண்மையில் எவ்வளவு வலுவானவை என்பதற்கான நம்பகமான பொதுப் புரிதல் இல்லையெனில், பயனர்கள் இருளில் தனியுரிமை முடிவுகளை எடுக்கிறார்கள்.

ZDNET-ல் மேற்கோளிடப்பட்ட King-இன் எச்சரிக்கை இன்னொரு அடுக்கையும் சுட்டிக்காட்டுகிறது: corporate stewardship மீதான சார்பு. பயனர்கள் நினைவில் பதிந்த அல்லது உணர்வுப்பூர்வமான தகவல் மீண்டும் வெளியே கசியாமல் தடுக்கும் guardrails-ஐ நிறுவனங்கள் அமைக்கும் என்று நடைமுறையில் நம்புகின்றனர். அதாவது, தனியுரிமை முடிவுகள் தொழில்நுட்ப வடிவமைப்பில் மட்டும் அல்லாமல், ஊக்கங்கள், நிர்வாகம், அமலாக்கம், மற்றும் உரையாடல் சாளரம் மூடப்பட்ட பிறகும் நீண்டகால விழிப்புணர்வில் சார்ந்திருக்கின்றன.

சமூக மாற்றம் பாதுகாப்புகளைவிட வேகமாக நகர்கிறது

இந்த விவகாரம் புதிதாக அவசரமாகத் தோன்றுவதற்குக் காரணம், சாட்பாட்கள் task tools-இலிருந்து relationship-like systems-ஆக மாறி வருவதுதான். ZDNET கூறுவதாவது, சிலர் சாட்பாட்களுடன் romantic relationships உருவாக்கியுள்ளனர் அல்லது அவற்றை life coaches மற்றும் therapists போலப் பயன்படுத்துகின்றனர். இந்த பயன்பாடுகள் பிரதானமாகிவிடுகிறதா இல்லையா என்பது முக்கியமல்ல; ஒரு முக்கியப் போக்கை அவை காட்டுகின்றன: முன்பு மருத்துவர், ஆலோசகர், நெருங்கிய நண்பர்கள், அல்லது தனிப்பட்ட குறிப்பேடுகளுக்காக மட்டும் ஒதுக்கப்பட்டிருந்த தகவல்களை AI அமைப்புகள் இப்போது கையாளுமாறு கேட்கப்படுகின்றன.

அந்த மாற்றம் ஆபத்தின் அளவையும் மாற்றுகிறது. கசியும் shopping query ஒன்று ஒன்று. கசியும் mental health disclosure, நிதிச் சிரமம், அல்லது மருத்துவக் கவலை இன்னொன்று. தரவு பொதுமக்கள் முன்னிலையில் வெளிப்படாதபோதும், retention, internal access, model training, அல்லது policy changes ஆகியவற்றின் பிந்தைய விளைவுகள் முக்கியமாக இருக்கலாம். இந்த சூழலில் தனியுரிமை என்பது வெறும் embarrassment பற்றியது அல்ல. அது எதிர்கால profiling, commercial targeting, மற்றும் பயனர்கள் நேர்மையாக உதவி கேட்க விரும்புகிறார்களா என்பதையும் பாதிக்கலாம்.

இந்த கட்டுரை ஒரு கலாசாரப் பிரச்சினையையும் சுட்டிக்காட்டுகிறது. சாட்பாட்கள் சாதாரணமானதாகி வருவதால் மக்கள் இந்த ஆபத்துகளைப் பற்றி நின்று சிந்திக்காமல் இருக்கலாம். அவை நாளின் எந்த நேரத்திலும் கிடைக்கின்றன, சரளமான பதில்களை உருவாக்குகின்றன, மற்றும் உடனடித்தன்மை உணர்வை உருவாக்குகின்றன; அது சிந்தனைக்குமுன் தகவல் வெளிப்படுத்த ஊக்குவிக்கிறது. அந்த வசதியே ஏற்றுக்கொள்ளல் அதிகரிக்கும் ஒரு காரணம். அதே நேரத்தில், எச்சரிக்கை நடத்தைவிட பின்னால் தங்குவதற்கும் அது ஒரு காரணம்.

AI ஏற்றுக்கொள்ளலின் அடுத்த கட்டத்திற்கான எச்சரிக்கை அறிகுறி

தற்போதைய விவாதம் சாட்பாட்களை கைவிட வேண்டும் என்பதல்ல. AI-யின் சமூகப் பயன்பாடு, அதனுடன் தொடர்புடைய privacy tradeoffs குறித்து பொதுமக்கள் கொண்டுள்ள புரிதலைவிட வேகமாக விரிவடைகிறது என்பதற்கான நினைவூட்டல்தான் அது. நுகர்வோர் intimacy-யை confidentiality எனக் கருதினால், அந்த இரண்டுக்கிடையேயான இடைவெளி ஆபத்தாக மாறலாம்.

ZDNET-இன் framing பயனுள்ளதாக உள்ளது, ஏனெனில் அது பிரச்சினை தீர்ந்துவிட்டது என நடிக்கவில்லை. சாட்பாட்களுடன் தனிப்பட்ட தகவல்களைப் பகிர்வதன் முழு விளைவுகளை ஆராய்ச்சியாளர்கள் இன்னும் புரிந்துகொள்ள முயற்சிக்கின்றனர். அந்த நிச்சயமற்ற தன்மையே இந்த விஷயம் இப்போது அதிக கவனம் பெற வேண்டும் என்பதற்குக் காரணம், பின்னர் அல்ல. ஒரு தொழில்நுட்பம் தினசரி பழக்கத்தில் பதிந்துவிட்டால், பயனர் நடத்தை மாற்றுவது, ஆரம்பத்திலேயே அதை வடிவமைப்பதைவிட மிகக் கடினமாகிவிடுகிறது.

நடைமுறை பாடம் எளிதானது. AI அமைப்புகள் திறமையானவையாகவும் மனிதநேயம் கொண்டவையாகவும் ஆகும் அளவுக்கு, மக்கள் அவற்றை உணர்வுப்பூர்வமான தகவல்களை நம்பிக்கையுடன் ஒப்படைக்கத் தகுந்த பெறுநர்களாகக் கருதும் வாய்ப்பு அதிகரிக்கிறது. நிறுவனங்கள், ஒழுங்குமுறை அமைப்புகள், மற்றும் பயனர்கள் அந்த உண்மையை நேரடியாக எதிர்கொள்ளாவிட்டால், AI ஏற்றுக்கொள்ளலின் அடுத்த கட்டம் சாட்பாட்கள் என்ன செய்ய முடியும் என்பதாலேயே அல்ல, பலர் சொல்லுவது பாதுகாப்பானது என்று தவறாக எவ்வளவு கருதினர் என்பதாலும் வரையறுக்கப்படலாம்.

இந்தக் கட்டுரை ZDNET-இன் செய்திப்பதிவை அடிப்படையாகக் கொண்டது. மூலக் கட்டுரையைப் படிக்கவும்.