काठमाडौं — गुगल (Google) अन्तर्गतको एआई (AI) प्रविधिमा केन्द्रित एक प्रमुख अनुसन्धान संस्था डीपमाइन्ड (DeepMind) ले आर्टिफिसियल जेनेरल इन्टेलिजेन्स (Artificial General Intelligence), जसलाई छोटकरीमा एजीआई (AGI) पनि भनिन्छ, सन् २०३० सम्ममा नै आउन सक्ने संकेत दिएको छ।
डीपमाइन्ड (DeepMind) का सह-संस्थापक शेन लेग (Shane Legg) सह-लेखक रहेको १४५ पृष्ठको एक दस्तावेजमा, लेखकहरूले एजीआई (AGI) ले “गम्भीर क्षति” पुर्याउन सक्ने चेतावनी दिएका छन्। उनीहरूले एजीआई (AGI) ले कसरी “अस्तित्व संकट” निम्त्याउन सक्छ र “स्थायी रूपमा मानवजातिको विनाश” गर्न सक्छ भन्ने बारे केही डरलाग्दो उदाहरणहरू पनि साझा गरेका छन्।
एजीआईले मानवजातिलाई कसरी हानि पुर्याउन सक्छ?
हालै प्रकाशित डीपमाइन्ड (DeepMind) को दस्तावेजले एजीआई (AGI) बाट हुने खतराहरूलाई चार वर्गमा विभाजन गरेको छ – दुरुपयोग (misuse), गलत तालमेल (misalignment), गल्तीहरू (mistakes) र संरचनात्मक जोखिमहरू (structural risks)। दस्तावेजमा दुरुपयोग र गलत तालमेलको बारेमा विस्तृत रूपमा चर्चा गरिएको छ भने अन्य दुई जोखिमहरूलाई संक्षिप्त रूपमा उल्लेख गरिएको छ।
दुरुपयोगको कुरा गर्दा, एजीआई (AGI) बाट हुने खतरा हाल उपलब्ध एआई (AI) उपकरणहरू जस्तै छ, तर एजीआई (AGI) वर्तमान पुस्ताको लार्ज ल्याङ्ग्वेज मोडल (large language model) हरूभन्दा धेरै शक्तिशाली हुने भएकाले क्षति धेरै ठूलो हुनेछ। उदाहरणका लागि, पहुँच भएको खराब व्यक्तिले यसलाई जिरो डे भल्नरेबिलिटी (zero day vulnerabilities) पत्ता लगाउन र प्रयोग गर्न वा भाइरस (virus) बनाउन आग्रह गर्न सक्छ जुन भविष्यमा हतियारको रूपमा प्रयोग हुन सक्छ। यसलाई रोक्न डीपमाइन्ड (DeepMind) ले विकासकर्ताहरूले सुरक्षा प्रोटोकल (safety protocols) हरू सिर्जना र विकास गर्नुपर्ने र त्यस्ता कामहरू गर्न प्रणालीको क्षमता पहिचान गरी सीमित गर्नुपर्ने बताएको छ।
यदि एजीआई (AGI) ले मानिसहरूलाई मद्दत गर्ने हो भने, यो प्रणाली मानव मूल्यमान्यताहरूसँग मिल्नु महत्त्वपूर्ण छ। डीपमाइन्ड (DeepMind) का अनुसार गलत तालमेल तब हुन्छ “जब एआई (AI) प्रणालीले मानव उद्देश्यभन्दा फरक लक्ष्य पछ्याउँछ,” जुन सुन्दा टर्मिनेटर (Terminator) चलचित्रको कथा जस्तै लाग्छ।
उदाहरणका लागि, जब एक प्रयोगकर्ताले एआई (AI) लाई चलचित्रको टिकट बुक (book) गर्न भन्छ, यसले पहिले नै बुक (book) भएका टिकटहरू प्राप्त गर्न टिकटिङ प्रणाली ह्याक (hack) गर्ने निर्णय गर्न सक्छ। डीपमाइन्ड (DeepMind) ले भ्रामक तालमेलको जोखिमबारे पनि अनुसन्धान गरिरहेको छ, जहाँ एआई (AI) प्रणालीले आफ्ना लक्ष्यहरू मानिसहरूसँग मेल नखाने कुरा बुझ्न सक्छ र जानाजानी राखिएका सुरक्षा उपायहरूलाई पार गर्ने प्रयास गर्न सक्छ। गलत तालमेलको सामना गर्न डीपमाइन्ड (DeepMind) ले हाल एम्प्लिफाइड ओभरसाइट (amplified oversight) प्रयोग गर्दछ, यो एक प्रविधि हो जसले एआई (AI) को जवाफहरू राम्रो छन् कि छैनन् भनेर बताउँछ, तर एआई (AI) उन्नत भएपछि यो गाह्रो हुन सक्छ।
गल्तीहरू कम गर्ने सन्दर्भमा, दस्तावेजमा समस्याको कुनै समाधान छैन, तर यसले एजीआई (AGI) लाई सुरुमा धेरै शक्तिशाली हुन दिनु हुँदैन, यसलाई बिस्तारै प्रयोगमा ल्याउनुपर्छ र यसको उपयोगिता सीमित गर्नुपर्छ भनेको छ। अन्तमा, संरचनात्मक जोखिमहरूले बहु-एजेन्ट प्रणालीहरूका परिणामहरूलाई जनाउँछ जसले यस्तो विश्वासिलो झूटो जानकारी दिन्छ कि हामी कसलाई विश्वास गर्ने भन्नेमा अलमलमा पर्न सक्छौं।
डीपमाइन्ड (DeepMind) ले यो दस्तावेज “महत्वपूर्ण छलफलहरूको सुरुवात मात्र” भएको र एजीआई (AGI) लाई प्रयोगमा ल्याउनुअघि यसले मानिसहरूलाई हानि पुर्याउन सक्ने सम्भावित तरिकाहरू बारे छलफल गर्नुपर्ने पनि बताएको छ।