
பயண ஆலோசனைக்காக AI-ஐ நம்புவது ரொம்ப டேஞ்சர் என்கிறார்கள் ஆராய்ச்சியாளர்கள்
செய்தி முன்னோட்டம்
பயண திட்டமிடலுக்கு ChatGPT மற்றும் Google Gemini போன்ற செயற்கை நுண்ணறிவு (AI) கருவிகள் மிகவும் பிரபலமடைந்து வருவதால், அதனை நம்பி செல்லும் சில பயணிகள் தவறான தகவல்களால் வெறுப்பூட்டும் அல்லது ஆபத்தான சூழ்நிலைகளில் சிக்கிக் கொள்கிறார்கள். பெருவில் சமீபத்தில் நடந்த ஒரு சம்பவம், பயண ஆலோசனைக்காக AI-ஐ மட்டுமே நம்பியிருப்பதன் சாத்தியமான அபாயங்களை எடுத்துக்காட்டுகிறது. இரண்டு சுற்றுலா பயணிகள், நிஜத்தில் இல்லாத "Sacred Canyon of Humantay"-ஐப் பார்வையிட AI-உருவாக்கிய ஆலோசனையால் தவறாக வழிநடத்தப்பட்டனர். இது மொல்லெபாட்டாவின் புறநகரில் உள்ள ஒரு வழிகாட்டி அல்லது இலக்கு இல்லாத கிராமப்புற சாலைக்கு அவர்களை இட்டுச் சென்றது.
அபாயங்கள்
பாதுகாப்பான பயணங்களுக்கு மனித நிபுணத்துவம் மிக முக்கியம்
பெரு போன்ற இடங்களில் இதுபோன்ற தவறான தகவல்கள் ஆபத்தானவை என்று எவல்யூஷன் ட்ரெக்ஸ் பெருவின் நிறுவனர் மிகுவல் ஏஞ்சல் கோங்கோரா மேசா எச்சரித்தார். உயரம், காலநிலை மாற்றங்கள் மற்றும் பாதை அணுகல் ஆகியவற்றை கவனமாக திட்டமிட வேண்டும் என்று அவர் விளக்கினார். ChatGPT போன்ற AI நிரலை சரியான அறிவு இல்லாமல் பயன்படுத்துவது ஆக்ஸிஜன் அல்லது தொலைபேசி சிக்னல் இல்லாத அதிக உயரத்தில் உங்களை கொண்டு போய் விடும் அபாயம் உள்ளது.
போக்கு
பயண திட்டமிடலில் AI-இன் எழுச்சி
ஆபத்துகள் இருந்தபோதிலும், மில்லியன் கணக்கானவர்களுக்கு பயணத் திட்டமிடலில் AI கருவிகள் ஒரு ஒருங்கிணைந்த பகுதியாக மாறிவிட்டன. சர்வதேச பயணிகளில் 30% பேர் இப்போது தங்கள் பயணங்களை ஒழுங்கமைக்க ஜெனரேட்டிவ் AI கருவிகள் மற்றும் வொண்டர்ப்ளான் மற்றும் லைலா போன்ற பிரத்யேக பயண தளங்களை பயன்படுத்துகின்றனர் என்று ஒரு கணக்கெடுப்பு கண்டறிந்துள்ளது. இந்த திட்டங்கள் சரியாக வேலை செய்யும் போது மதிப்புமிக்க பயண உதவிக்குறிப்புகளை வழங்க முடியும். ஆனால் அவை இல்லாதபோது மக்களை வெறுப்பூட்டும் அல்லது ஆபத்தான சூழ்நிலைகளுக்கு இட்டுச் செல்லும்.
சவால்கள்
AI இன் வரம்புகள் மற்றும் சவால்கள்
பயணத் திட்டமிடலுக்கு AI-ஐப் பயன்படுத்திய பதிலளித்தவர்களில் 37% பேர் போதுமான தகவல்கள் இல்லை என்று தெரிவித்ததாக 2024 ஆம் ஆண்டு நடத்தப்பட்ட ஒரு கணக்கெடுப்பில் கண்டறியப்பட்டுள்ளது. அதே நேரத்தில் சுமார் 33% பேர் தங்கள் AI-உருவாக்கிய பரிந்துரைகளில் தவறான தகவல்கள் இருப்பதாகக் கூறினர். AI அதன் பதில்களை எவ்வாறு உருவாக்குகிறது என்பதிலிருந்து இந்தப் பிரச்சினைகள் உருவாகின்றன. ChatGPT போன்ற திட்டங்கள் பகுத்தறிவு ஆலோசனைகளை வழங்குவது போல் தோன்றலாம், ஆனால் "பிரமைகள்" அல்லது புனையப்பட்ட தகவல்களையும் உருவாக்க முடியும் என்று கார்னகி மெல்லன் பல்கலைக்கழகத்தில் இயந்திர கற்றலில் புகழ்பெற்ற பேராசிரியரான ரேயிட் கானி விளக்கினார்.
தவறான தகவல்
தவறான தகவல்கள் அதிகரித்து வருகின்றன
மலேசியாவில் ஒரு அழகிய கேபிள் கார் பற்றிய டிக்டாக்கில் AI-உருவாக்கப்பட்ட வீடியோவால் ஒரு ஜோடி தவறாக வழிநடத்தப்பட்டதாக ஒரு சமீபத்திய ஃபாஸ்ட் கம்பெனி கட்டுரை தெரிவித்தது. அந்த அமைப்பு இல்லை, பயண பரிந்துரைகளுக்கு AI-ஐ நம்பியிருப்பதன் சாத்தியமான ஆபத்துகளை எடுத்துக்காட்டுகிறது. இந்த சம்பவங்கள் AI செயல்படுத்தல்களின் பெரிய போக்கின் ஒரு பகுதியாகும், அவை உலகத்தைப் பற்றிய நமது பார்வையை நுட்பமாக மாற்றக்கூடும், தவறான தகவல்கள் மற்றும் பயணிகளின் அனுபவங்களில் அதன் தாக்கம் குறித்த கவலைகளை எழுப்புகின்றன.