March 2, 2026

Namma Multimedia

The gold mine of tomorrow's world

புரியாத புதிர்:தான் எடுத்த முடிவிற்கான காரணம் தெரியாமல் தடுமாறும் AI ‘மூளை’!

செயற்கை நுண்ணறிவு (AI) இன்று மனிதனைப் போலவே சிந்திப்பதாகவும், முடிவுகளை எடுப்பதாகவும் நாம் கொண்டாடுகிறோம். ஆனால், ஒரு சிக்கலான கட்டத்தில் AI ஒரு முடிவை எடுக்கும்போது, அது “ஏன்” அந்த முடிவை எடுத்தது என்று கேட்டால், அதைப் உருவாக்கிய உலகத்தரம் வாய்ந்த இன்ஜினியர்களுக்கே பதில் தெரியாது என்பதுதான் தற்போதைய தொழில்நுட்ப உலகின் மிகப்பெரிய ரகசியம். இது ஏதோ ஒரு மாயாஜாலம் அல்ல; AI-ன் உள் கட்டமைப்பில் ஒளிந்திருக்கும் ஒரு தொழில்நுட்பச் சிக்கல்.

‘பிளாக் பாக்ஸ்’ (Black Box) மர்மம்

நவீன AI மாடல்கள், குறிப்பாக ‘டீப் லேர்னிங்’ (Deep Learning) முறையில் செயல்படுபவை, கோடிக்கணக்கான நரம்பியல் பிணைப்புகளைக் (Neural Networks) கொண்டவை. நாம் ஒரு தகவலை உள்ளே அனுப்பினால், அது அந்தப் பிரம்மாண்டமான வலைப்பின்னலுக்குள் பயணித்து ஒரு முடிவாக வெளியே வருகிறது.

ஆனால், அந்த வலைப்பின்னலுக்குள் எந்த இடத்தில், எந்தத் தரவின் அடிப்படையில் அந்த முடிவு எடுக்கப்பட்டது என்பதை யாராலும் துல்லியமாகப் பின் தொடர முடியாது. இதையே ஆராய்ச்சியாளர்கள் “பிளாக் பாக்ஸ்” என்று அழைக்கிறார்கள். அதாவது, உள்ளீடு (Input) மற்றும் வெளியீடு (Output) மட்டுமே நமக்குத் தெரியும்; உள்ளே நடப்பது ஒரு இருட்டு அறை போன்றது.

ஏன் இன்ஜினியர்களால் கண்டுபிடிக்க முடியவில்லை?

  1. சிக்கலான அடுக்குகள்: ஒரு சராசரி AI மாடலில் ஆயிரக்கணக்கான அடுக்குகள் மற்றும் பில்லியன் கணக்கான பாராமீட்டர்கள் (Parameters) உள்ளன. ஒரு மனித மூளையில் நியூரான்கள் எப்படிச் செயல்படுகின்றன என்பதைப் புரிந்துகொள்வது எவ்வளவு கடினமோ, அதே போன்றதுதான் இதுவும்.

  2. தர்க்கத்திற்குப் பதில் புள்ளிவிவரம்: AI என்பது மனிதனைப் போல “இது சரியாக இருக்கும்” என்று தர்க்கரீதியாகச் சிந்திப்பதில்லை. அது தரவுகளில் உள்ள ஒரு ‘பேட்டர்னை’ (Pattern) மட்டுமே கவனிக்கிறது. ஒரு படத்தில் இருப்பது பூனையா அல்லது நாயா என்று சொல்லும்போது, அது காதுகளையோ கால்களையோ பார்த்துச் சொல்வதில்லை; பிக்சல்களின் புள்ளிவிவர அமைப்பை வைத்துச் சொல்கிறது.

  3. சுயமாகக் கற்றல்: இன்ஜினியர்கள் AI-க்கு “இப்படிச் செய்” என்று கட்டளை இடுவதில்லை. “நீயே கற்றுக்கொள்” என்று தரவுகளை மட்டுமே தருகிறார்கள். அது தானாகவே ஒரு வழியைக் கண்டுபிடிக்கும்போது, அந்த வழி மனிதப் புரிதலுக்கு அப்பாற்பட்டதாக இருக்கிறது.

இதில் ஒளிந்திருக்கும் ஆபத்துகள்

இந்த மர்மம் வெறும் ஆச்சரியம் மட்டுமல்ல, சில நேரங்களில் ஆபத்தானதும் கூட:

  • பாரபட்சமான முடிவுகள் (Bias): ஒரு வங்கி லோன் விண்ணப்பத்தை AI நிராகரிக்கும்போது, அது ஜாதி, மதம் அல்லது பாலினம் காரணமாக அந்த முடிவை எடுத்ததா என்பதை இன்ஜினியர்களால் உறுதியாகச் சொல்ல முடியாது.

  • மருத்துவத் துறை: ஒரு நோயாளிக்கு ஒரு குறிப்பிட்ட சிகிச்சையை AI பரிந்துரைக்கும்போது, அதன் பின்னால் உள்ள மருத்துவக் காரணங்களை மருத்துவர்களால் சரிபார்க்க முடியாமல் போகலாம்.

எதிர்காலத் தீர்வு: ‘விளக்கக்கூடிய AI’ (XAI)

இந்தச் சிக்கலைத் தீர்க்க இப்போது “Explainable AI” (XAI) என்ற புதிய துறை உருவாகி வருகிறது. அதாவது, ஒரு முடிவை எடுப்பது மட்டுமல்லாமல், “நான் இதனால்தான் இந்த முடிவை எடுத்தேன்” என்று மனிதர்களுக்குப் புரியும் மொழியில் விளக்கம் அளிக்கும் திறனை AI-க்கு வழங்க ஆராய்ச்சியாளர்கள் முயன்று வருகிறார்கள்.

AI என்பது ஒரு அற்புதமான கருவி என்பதில் சந்தேகமில்லை. ஆனால், அதன் கடிவாளம் நம் கையில் இருக்க வேண்டுமானால், அந்த இருட்டு அறைக்குள் என்ன நடக்கிறது என்பதை நாம் வெளிச்சம் போட்டுக் காட்ட வேண்டியது அவசியம்.

பிருத்விராஜ்

Spread the love
error: Content is protected !!