काठमाडौं । आर्टिफिसियल इन्टेलिजेन्स अर्थात एआईले गर्न नसक्ने कामको दायरा दिनप्रतिदिन कम हुँदै गएको छ । स्वचालित गाडी, भर्चुअल एसिस्टेन्ट, मेडिकल, फाइनान्सलगायतका क्षेत्रमा र पछिल्लो समय महत्वपूर्ण कोडहरु लेख्ने, आर्ट बनाउनेदेखि अनेकौँ काम गर्ने एआईको विकासले गति पाएको छ ।
विज्ञहरु एआईको विकासलाई लिएर चिन्तित बन्दै गएका छन् । अमेरिकी म्याजिन टाइमले ५५० एआई रिर्सचरहरुलाई सोध्दा १० प्रतिशतले उच्च क्षमताका एआईले मानव अस्तित्वको संकट सिर्जना गर्नसक्ने भनेका छन् ।
मे ३० मा सयौँ एआई वैज्ञानिक र ओपनएआई, डीपमाइन्ड जस्ता प्रमुख एआई कम्पनीका सीईओले एआईमा सावधानी अपनाउन भन्दै एक पत्रमा हस्ताक्षर गरेका थिए । उक्त पत्रले ‘एआईबाट (मानव) विलुप्त हुने जोखिमलाई कम गर्नु र महामारी एवं आणविक युद्धजस्ता सामाजिक स्तरका जोखिम कम गर्नु विश्वव्यापी प्राथमिकता हुनुपर्ने’ भनेको छ ।
तर, यतिसम्म सोच्न किन आवश्यक छ ? सबैभन्दा सरल कुरा के हो भने एआईमा भइरहेको विकासले ‘अलौकिक स्मार्ट कृत्रिम मानिस’हरुको सृजना गर्नसक्छ । तिनीहरुले मानवताको चासोका विषय र ती विषय आफैँ गर्ने स्वायत्ततामा बाधा वा द्वन्द्व सिर्जना गर्न सक्छन् ।
केही अन्वेषक एवं खोजकर्ता र उच्च क्षमताका प्रयोगशाला वा कम्पनीहरु यो जोखिमलाई लिएर अघि बढेनन् भने पनि समस्या हुनसक्छ । किनकि, सुरक्षित प्रयोगशाला वा कम्पनीहरुले एआईको विकास नगर्दा कमजोर र गैरजिम्मेवाहरुबाट यस्तो जोखिम हुनेछ ।
यो तर्कले एआईको अवस्थालाई हतियारको दौड जस्तै बनाउँछ । जसरी युद्धमा कुनै एक पक्षले अर्काेलाई हराउन चाह्यो भने दुवै पक्ष हतियारको दौडमा लाग्छन् ।
सापेक्ष लाभ नपाउँदा हतियार विकासमा निकै धेरै समय र पैसा खर्च भइसकेको हुन्छ । यति हुँदाहुँदै पनि हतियार विकासको दौडमा जारी नै रहनुपर्छ । किनकि, रोकिनले हार्न सक्छ । यसकारण दुवै पक्ष यो दलदलमा फस्छन् ।
तर, एआईको अवस्था फरक छ । हतियारको दौडमा शक्तिशाली हतियार बनाउनेले जित्न सक्छ । तर, शक्तिशाली एआई बनाउनेले सुरुमा आफ्नै हारको सामना गर्ने स्थिति पनि आउन सक्छ ।
एआईको अर्काे ‘गेम चेन्जिङ फेक्टर’ भनेको यसको विकास विस्तारै हुँदा कति सुरक्षित हुन्छ भन्ने पनि हो । यस्तै, एक पक्षले गरेको कति लगानीले सबैका लागि सुरक्षा कायम गर्नसक्छ, अर्काे पक्षले एआईका विकास गर्दा कति हानी पुर्याउन सक्छ भन्ने र कसैले निम्त्याउने संकट रोक्न सक्ने वा नसक्ने पनि महत्वपूर्ण विषय हो ।
वास्तविकता सामान्य आकलनभन्दा जटिल हुनसक्छ । कुनै व्यक्ति वा समूह, संगठनले हतियारको दौड जसरी एआईको क्षेत्रमा जोखिम सृजना गर्न सक्छ । तर, त्यसबाट जोगिन मानिसले बहस गर्न सक्छ, समन्वय गर्न सक्छ, प्रतिबद्धता र एआई विकासको अवलोकन गर्न सक्छ । अझैं महत्वपूर्ण कुरा भनेको सरकारलाई नियमन र सम्झौताका लागि लबिङ गर्न सकिन्छ ।
एआईमा दुईपक्षबीचको हार–जित समाजका लागि भने एउटै नहुन सक्छ । जस्तो मेटाले माइक्रोसफ्टलाई हरायो भने धेरैलाई फरक पर्दैन । तर, नाम र दाम खोजिरहेको अनुसन्धानकर्ता र लगानीकर्ताहरुका लागि यो महत्वपूर्ण हुनेछ । कुनै पनि कम्पनीहरुले एआईको विकासमा लागिरहँदा उनीहरुले गर्ने कामलाई सबैले नियाल्न आवश्यक देखिन्छ ।
हतियारको दौडभन्दा फरक एआईको दौड पातलो बरफमा उभिएको भिड हुनसक्छ, जसको छेउमा पैंसा नै पैंसा छ । तर, सबै सावधानीपूर्वक अघि बढे भने मात्रै त्यहाँसम्म पुग्न सक्नेछन् ।
यस्तोमा हरेकले आफू अर्काेभन्दा राम्रो तरिकाले अघि बढ्न सक्ने ठानिरहेका छन् । त्यसैले एआईको मामिला हतियारको दौडभन्दा ठिक विपरीत हुनसक्छ ।
व्यक्तिगत सन्दर्भमा सबैभन्दा उत्कृष्ट कदम विस्तारै र सावधानीपूर्वक अघि बढ्नु हुनसक्छ । सामूहिकरुपमा खासगरी एआईको विपत्तिबाट जोगिने वा बच्ने विकल्पको खोजी नभएसम्म विश्वले कसैलाई पनि मानवताको विनाश गर्नसक्ने मार्गमा जान दिँनु हुँदैन । (टाइमका लागि मेसिन इन्टेलिजेन्स रिसर्च इन्स्टिच्युटकी काटजा ग्रेस)