सन्दर्भ:
: आर्टिफिशियल इंटेलिजेंस (AI) के संदर्भ में, खासकर GPT-5 और क्लाउड जैसे बड़े लैंग्वेज मॉडल (LLMs) में, कॉन्टेक्स्ट विंडो टेक्स्ट की वह अधिकतम मात्रा है जिसे मॉडल रिस्पॉन्स जेनरेट करते समय एक बार में देख सकता है।
AI में कॉन्टेक्स्ट विंडो के बारे में:
- एक आर्टिफिशियल इंटेलिजेंस (AI) मॉडल की कॉन्टेक्स्ट विंडो यह मापती है कि AI मॉडल कितनी जानकारी याद रख सकता है, जो इंसानों की शॉर्ट-टर्म मेमोरी की तरह काम करती है।
- AI मॉडल शब्द नहीं पढ़ते; इसके बजाय, वे टोकन कहे जाने वाले कैरेक्टर के चंक्स पढ़ते हैं।
- कॉन्टेक्स्ट विंडो टोकन में टेक्स्ट की वह मात्रा है, जिसे मॉडल एक बार में विचार कर सकता है या “याद” रख सकता है।
- एक बड़ी कॉन्टेक्स्ट विंडो एक AI मॉडल को लंबे इनपुट को प्रोसेस करने और हर आउटपुट में ज़्यादा जानकारी शामिल करने में मदद करती है।
- एक लार्ज लैंग्वेज मॉडल (LLM) की कॉन्टेक्स्ट विंडो को उसकी वर्किंग मेमोरी के बराबर माना जा सकता है।
- यह तय करता है कि वह बातचीत के दौरान पहले की डिटेल्स को भूले बिना कितनी लंबी बातचीत कर सकता है।
- यह उन डॉक्यूमेंट्स या कोड सैंपल के अधिकतम साइज़ को भी तय करता है जिन्हें वह एक बार में प्रोसेस कर सकता है।
- जब कोई प्रॉम्प्ट, बातचीत, डॉक्यूमेंट या कोड बेस किसी AI मॉडल की कॉन्टेक्स्ट विंडो से ज़्यादा हो जाता है, तो मॉडल को आगे बढ़ने के लिए उसे छोटा या सारांशित करना पड़ता है।
- आम तौर पर, एक LLM की कॉन्टेक्स्ट विंडो का साइज़ बढ़ाने से सटीकता बढ़ती है, मतिभ्रम कम होता है, मॉडल के जवाब ज़्यादा सुसंगत होते हैं, बातचीत लंबी होती है और डेटा के लंबे सीक्वेंस का विश्लेषण करने की क्षमता बेहतर होती है।
- हालांकि, कॉन्टेक्स्ट की लंबाई बढ़ाने के कुछ नुकसान भी हैं: इसमें अक्सर ज़्यादा कंप्यूटेशनल पावर की ज़रूरत होती है- और इसलिए लागत भी बढ़ जाती है- और एडवर्सरियल हमलों के प्रति भेद्यता में संभावित वृद्धि होती है।
