ए आई! - 1 संगणन शक्ति AI का अगला शीर्ष मॉडल आज के एलएलएम से आगे बढ़ने के लिए कुछ मूलभूत सफलताओं की आवश्यकता होगी एआई-लैंड में,प्रौद्योगिकियाँ प्रकाश की गति से उल्लेखनीय से पुरानी टोपी की ओर बढ़ती हैं। केवल 18 महीने पहले ओपनई के चैटबॉट,चैटजीपीटी की रिलीज ने एआई उन्माद शुरू कर दिया था।आज इसकी शक्तियाँ आम हो गई हैं।कई कंपनियों जैसे एंथ्रोपिक,गूगल और मेटा)ने तब से अपने स्वयं के मॉडल(क्लाउड,जेमिनी और लामा)के संस्करणों का अनावरण किया है,जो विभिन्न तरीकों से चैटजीपीटी में सुधार कर रहे हैं। नए की भूख और भी तेज हो गई है। मार्च में एंथ्रोपिक ने क्लाउड 3 लॉन्च किया,जिसने विभिन्न लीडरबोर्ड पर ओपनाई और गूगल के पिछले शीर्ष मॉडलों को पछाड़ दिया। 9 अप्रैल को ओपेनाई ने अपने मॉडल में बदलाव करके (कुछ उपायों पर) ताज हासिल कर लिया। आने वाले हफ्तों में मेटा द्वारा लामा 3 को रिलीज़ करने की उम्मीद है।ओपनाई निश्चित रूप से उसके बाद किसी समय धूम मचाएगा जब वह जीपीटी-5 को रिलीज़ करेगा,जिसमें किसी भी मौजूदा बड़े भाषा मॉडल (एलएलएम) से परे क्षमताएं हो सकती हैं। यदि अफवाहों पर विश्वास किया जाए,तो अगली पीढ़ी के मॉडल और भी अधिक उल्लेखनीय होंगे-उदाहरण के लिए,केवल संकेतों का जवाब देने के बजाय,या पहले उपलब्ध एल्गोरिथम को अस्पष्ट करने के बजाय जटिल प्रश्नों का सावधानीपूर्वक विश्लेषण करने में सक्षम,बहु-चरणीय कार्य करने में सक्षम उत्तर होंगे। उन लोगों के लिए जो मानते हैं कि यह सामान्य तकनीकी प्रचार है,इस पर विचार करें:-निवेशक अगली पीढ़ी के मॉडलों का समर्थन करने के बारे में बेहद गंभीर हैं। जीपीटी-5 और अन्य अगली पीढ़ी के मॉडलों को प्रशिक्षित करने में अरबों डॉलर खर्च होने की उम्मीद है। कथित तौर पर Openai एक नया 100 बिलियन डॉलर का डेटा सेंटर बनाने के लिए एक तकनीकी दिग्गज Microsoft के साथ साझेदारी कर रहा है। केवल संख्याओं के आधार पर,ऐसा लगता है मानो भविष्य में असीमित घातीय वृद्धि होगी। कई एआई शोधकर्ताओं द्वारा साझा किए गए एक दृश्य के साथ इन झंकारों को "स्केलिंग परिकल्पना" कहा जाता है,अर्थात् वर्तमान एलएलएम की वास्तुकला अभूतपूर्व प्रगति को अनलॉक करने की राह पर है। परिकल्पना के अनुसार, मानवीय क्षमताओं को पार करने के लिए केवल अधिक डेटा और अधिक शक्तिशाली कंप्यूटर चिप्स की आवश्यकता होती है। हालाँकि,तकनीकी सीमा को करीब से देखें,और कुछ कठिन बाधाएँ स्पष्ट हो जाती हैं। खूबसूरती ही काफी नहीं है डेटा सबसे तात्कालिक बाधा प्रस्तुत कर सकता है। एक शोध संगठन, एपोच एआई का अनुमान है कि सार्वजनिक इंटरनेट पर उच्च-गुणवत्ता वाला पाठ्य डेटा 2026 तक ख़त्म हो जाएगा। इसने शोधकर्ताओं को विचारों के लिए संघर्ष करना छोड़ दिया है। कुछ प्रयोगशालाएँ निजी वेब की ओर रुख कर रही हैं,दलालों और समाचार वेबसाइटों से डेटा खरीद रही हैं।अन्य लोग इंटरनेट की विशाल मात्रा में ऑडियो और विज़ुअल डेटा की ओर रुख कर रहे हैं,जिसका उपयोग दशकों तक बड़े मॉडलों को प्रशिक्षित करने के लिए किया जा सकता है।वीडियो एआई मॉडलों को उनके आसपास की दुनिया की भौतिकी के बारे में सिखाने में विशेष रूप से उपयोगी हो सकता है।यदि कोई मॉडल हवा में उड़ती हुई गेंद को देख सकता है,तो यह प्रक्षेप्य की गति का वर्णन करने वाले गणितीय समीकरण को अधिक आसानी से पूरा कर सकता है। GPT-4 और जेमिनी जैसे अग्रणी मॉडल अब "मल्टीमॉडल"हैं,जो विभिन्न प्रकार के डेटा से निपटने में सक्षम हैं। जब डेटा नहीं मिल पाता,तो इसे बनाया जा सकता है।स्केल एआई और सर्ज एआई जैसी कंपनियों ने डेटा उत्पन्न करने और एनोटेट करने के लिए लोगों के बड़े नेटवर्क बनाए हैं,जिनमें गणित या जीव विज्ञान में समस्याओं को सुलझाने वाले पीएचडी शोधकर्ता भी शामिल हैं। एक अग्रणी एआई स्टार्टअप के एक कार्यकारी का अनुमान है कि इससे एआई प्रयोगशालाओं की लागत प्रति वर्ष करोड़ों डॉलर हो रही है। एक सस्ते दृष्टिकोण में "सिंथेटिक डेटा" उत्पन्न करना शामिल है जिसमें एक एलएलएम दूसरे मॉडल को प्रशिक्षित करने के लिए अरबों पृष्ठों का पाठ बनाता है। हालाँकि वह विधि मुसीबत में पड़ सकती है:-इस तरह प्रशिक्षित मॉडल अपना पिछला ज्ञान खो सकते हैं और गैर-रचनात्मक प्रतिक्रियाएँ उत्पन्न कर सकते हैं। सिंथेटिक डेटा पर एआई मॉडल को प्रशिक्षित करने का एक अधिक उपयोगी तरीका उन्हें सहयोग या प्रतिस्पर्धा के माध्यम से सीखना है। शोधकर्ता इसे "स्वयं-खेल"कहते हैं। 2017 में सर्च दिग्गज की एआई लैब Google DeepMind ने AlphaGo नामक एक मॉडल विकसित किया,जिसने खुद के खिलाफ प्रशिक्षण के बाद,Go के खेल में मानव विश्व चैंपियन को हरा दिया। Google और अन्य कंपनियाँ अब अपने नवीनतम एलएलएम पर समान तकनीकों का उपयोग करती हैं। Pavan Kumar Sharma(collection by)