OpenAI-இன் CEO சாம் ஆல்ட்மேன், ChatGPT பயனர்களுக்கு ஒரு முக்கியமான எச்சரிக்கையை விடுத்துள்ளார். ஒரு சாட்ஜிபிடி AI உடனான உரையாடல்கள், வழக்கமான சிகிச்சையாளர்கள், மருத்துவர்கள் அல்லது வழக்கறிஞர்களுடனான உரையாடல்களைப் போல சட்டப்பூர்வமாகப் பாதுகாக்கப்படாது என்று அவர் கூறியுள்ளார். இதன் பொருள் என்னவென்றால், ஒரு சட்ட வழக்கு (lawsuit) ஏற்பட்டால், OpenAI பயனர்களின் தனிப்பட்ட உரையாடல்களை வெளிப்படுத்த வேண்டிய கட்டாயம் ஏற்படலாம் என்பதே.
ஏன் இந்த எச்சரிக்கை?
சாம் ஆல்ட்மேன் ஒரு பாட்காஸ்டில் (Theo Von உடன்) பேசும்போது இதைத் தெளிவுபடுத்தினார். மக்கள், குறிப்பாக இளைஞர்கள், தங்கள் மிகவும் உணர்ச்சிகரமான மற்றும் தனிப்பட்ட விஷயங்களை ChatGPT-யுடன் பகிர்ந்து கொள்கிறார்கள். அதை ஒரு டிஜிட்டல் சிகிச்சையாளராக அல்லது வாழ்க்கை வழிகாட்டியாகப் பயன்படுத்துகிறார்கள். ஆனால், இங்கேதான் சிக்கல் எழுகிறது:
- சட்டப்பூர்வ பாதுகாப்பு இல்லை: ஒரு சிகிச்சையாளர்-நோயாளி இரகசியம் (therapist-patient confidentiality) அல்லது வழக்கறிஞர்-வாடிக்கையாளர் இரகசியம் (attorney-client privilege) போன்ற சட்டப்பூர்வ சலுகைகள் AI உடனான உரையாடல்களுக்கு தற்போது பொருந்தாது.
- வழக்குகளில் அம்பலமாகும் வாய்ப்பு: இதனால், ஏதேனும் சட்ட வழக்கு ஏற்பட்டால், நீதிமன்ற உத்தரவின் பேரில் OpenAI அந்த உரையாடல்களைச் சமர்ப்பிக்க வேண்டிய நிலை வரலாம். இதில் பயனர்கள் ChatGPT-யுடன் பகிர்ந்து கொண்ட மிகவும் தனிப்பட்ட தகவல்களும் அடங்கும்.
- ஆல்ட்மேனின் கருத்து: “இது மிகவும் குழப்பமானது” என்று ஆல்ட்மேன் ஒப்புக்கொண்டார். AI-இன் வேகமான வளர்ச்சிக்கு ஏற்ப சட்ட முறைமை இன்னும் உருவாகவில்லை என்றும், தனியுரிமை விதிமுறைகள் அவசரமாகத் தேவை என்றும் அவர் வலியுறுத்தினார்.
தரவு பாதுகாப்பு மற்றும் சட்டச் சிக்கல்கள்
OpenAI பயனர்களின் தரவுகளை எவ்வாறு கையாள்கிறது என்பதும் இதில் ஒரு முக்கிய அம்சம். இலவச, பிளஸ் மற்றும் புரோ பயனர்களின் நீக்கப்பட்ட உரையாடல்கள் 30 நாட்களுக்குள் அழிக்கப்படும் என்று OpenAI கூறுகிறது. ஆனால், சட்டப்பூர்வ அல்லது பாதுகாப்பு காரணங்களுக்காக தேவைப்பட்டால் அவற்றை வைத்திருக்க வேண்டியிருக்கும் என்றும் தெரிவித்துள்ளது.
மேலும், WhatsApp அல்லது Signal போன்ற எண்ட்-டு-எண்ட் என்க்ரிப்ட் செய்யப்பட்ட (end-to-end encrypted) பயன்பாடுகளைப் போலல்லாமல், OpenAI ஊழியர்கள் பயனர்களின் உரையாடல்களைப் படிக்க முடியும். AI மாதிரியை மேம்படுத்துவதற்கும், தவறான பயன்பாட்டை (misuse) கண்காணிப்பதற்கும் இந்தத் தரவுகள் சில சமயங்களில் பயன்படுத்தப்படலாம்.
ஒரு அவசரத் தேவை: AI தனியுரிமைச் சட்டங்கள்
சாம் ஆல்ட்மேன் இந்தச் சிக்கலை “ஒரு வருடத்திற்கு முன்பு கூட யாரும் இதைப் பற்றி யோசிக்கவில்லை, இப்போது இது ஒரு பெரிய பிரச்சினையாக உள்ளது” என்று கூறினார். AI உடனான உரையாடல்களுக்கும் மனித சிகிச்சையாளர்களுடன் பேசும்போது கிடைக்கும் அதே தனியுரிமைச் சட்டம் தேவை என்றும், இது அவசரமாகக் கவனிக்கப்பட வேண்டும் என்றும் அவர் வலியுறுத்தினார். சட்டமியற்றுபவர்களும் இந்த விஷயத்தை ஒப்புக்கொள்கிறார்கள் என்று ஆல்ட்மேன் தெரிவித்தார்.
நியூயார்க் டைம்ஸ் உடனான ஒரு சட்டப் போராட்டத்தின் காரணமாகவும் OpenAI பயனர் உரையாடல்களைத் தக்கவைத்துக் கொள்ள நீதிமன்ற உத்தரவு பெற்றுள்ளது (ChatGPT Enterprise தவிர). இந்த உத்தரவை எதிர்த்து OpenAI மேல்முறையீடு செய்துள்ளது, ஏனெனில் இது பயனர் தரவை அதிக சட்ட மற்றும் அமலாக்க ஆய்வுக்கான முன்னுதாரணமாக மாறும் என்று அஞ்சுகிறது.
ஆகவே, ChatGPT போன்ற AI கருவிகளைத் தனிப்பட்ட தகவல்களைப் பகிர்ந்து கொள்வதற்குப் பயன்படுத்துபவர்கள், தற்போதுள்ள சட்டப் பாதுகாப்புகளின் பற்றாக்குறையைப் பற்றி எச்சரிக்கையாக இருக்க வேண்டும் என்பதே சாம் ஆல்ட்மேனின் தெளிவான செய்தி.
Related Posts
AI-ஆல் உருவாக்கப்பட்ட ‘காட்சி அனகிராம்கள்’ – மூளை பார்வையை உணரும் விதம் குறித்த புதிய ஆய்வு!
K Prize: AI கோடிங் சவாலில் ஒரு புதிய அணுகுமுறை!
Meta AI: இன்ஸ்டா, வாட்ஸ்அப், மெசஞ்சரில் தானாகப் பேசும் சாட்பாட்கள்!