होम विज्ञान सभी प्रमुख एआई मॉडल खतरनाक विज्ञान प्रयोगों को प्रोत्साहित करने का जोखिम...

सभी प्रमुख एआई मॉडल खतरनाक विज्ञान प्रयोगों को प्रोत्साहित करने का जोखिम उठाते हैं

189
0
सभी प्रमुख एआई मॉडल खतरनाक विज्ञान प्रयोगों को प्रोत्साहित करने का जोखिम उठाते हैं

वैज्ञानिक प्रयोगशालाएँ खतरनाक स्थान हो सकती हैं

पीपलइमेजेज/शटरस्टॉक

शोधकर्ताओं ने चेतावनी दी है कि वैज्ञानिक प्रयोगशालाओं में एआई मॉडल के उपयोग से खतरनाक प्रयोग होने का खतरा है जिससे आग या विस्फोट हो सकता है। ऐसे मॉडल समझ का एक ठोस भ्रम पेश करते हैं लेकिन बुनियादी और महत्वपूर्ण सुरक्षा सावधानियों के अभाव के प्रति संवेदनशील होते हैं। 19 अत्याधुनिक एआई मॉडल के परीक्षणों में, हर एक ने संभावित रूप से घातक गलतियाँ कीं।

विश्वविद्यालय प्रयोगशालाओं में गंभीर दुर्घटनाएँ दुर्लभ हैं लेकिन निश्चित रूप से अनसुनी नहीं हैं। 1997 में, रसायनज्ञ करेन वेटरहैन की उसके सुरक्षात्मक दस्तानों से रिसने वाले डाइमिथाइलमेरकरी द्वारा हत्या कर दी गई थी; 2016 में, एक विस्फोट में एक शोधकर्ता का हाथ बर्बाद हो गया; और 2014 में, एक वैज्ञानिक आंशिक रूप से अंधा हो गया था।

अब, एआई मॉडल को अनुसंधान प्रयोगशालाओं सहित विभिन्न उद्योगों और क्षेत्रों में सेवा में लगाया जा रहा है, जहां उनका उपयोग प्रयोगों और प्रक्रियाओं को डिजाइन करने के लिए किया जा सकता है। विशिष्ट कार्यों के लिए डिज़ाइन किए गए एआई मॉडल का उपयोग जीव विज्ञान, मौसम विज्ञान और गणित जैसे कई वैज्ञानिक क्षेत्रों में सफलतापूर्वक किया गया है। लेकिन बड़े सामान्य-उद्देश्य वाले मॉडल बातें बनाने और प्रश्नों का उत्तर देने में प्रवृत्त होते हैं, तब भी जब उनके पास सही प्रतिक्रिया देने के लिए आवश्यक डेटा तक पहुंच नहीं होती है। अवकाश स्थलों या व्यंजनों पर शोध करते समय यह एक उपद्रव हो सकता है, लेकिन रसायन विज्ञान प्रयोग को डिजाइन करते समय संभावित रूप से घातक हो सकता है।

जोखिमों की जांच करने के लिए, इंडियाना में नोट्रे डेम विश्वविद्यालय में जियांगलियांग झांग और उनके सहयोगियों ने लैबसेफ्टी बेंच नामक एक परीक्षण बनाया जो माप सकता है कि एआई मॉडल संभावित खतरों और हानिकारक परिणामों की पहचान करता है या नहीं। इसमें 765 बहुविकल्पीय प्रश्न और 404 सचित्र प्रयोगशाला परिदृश्य शामिल हैं जिनमें सुरक्षा समस्याएं शामिल हो सकती हैं।

बहुविकल्पीय परीक्षणों में, कुछ एआई मॉडल, जैसे कि विकुना, ने लगभग उतना ही कम स्कोर किया जितना कि यादृच्छिक अनुमानों के साथ देखा जा सकता है, जबकि जीपीटी-4ओ 86.55 प्रतिशत सटीकता और डीपसीक-आर1 84.49 प्रतिशत सटीकता तक पहुंच गया। जब छवियों के साथ परीक्षण किया गया, तो कुछ मॉडल, जैसे कि इंस्ट्रक्टब्लिप-7बी, ने 30 प्रतिशत से कम सटीकता प्राप्त की। टीम ने लैबसेफ्टी बेंच पर 19 अत्याधुनिक बड़े भाषा मॉडल (एलएलएम) और विज़न भाषा मॉडल का परीक्षण किया और पाया कि किसी ने भी कुल मिलाकर 70 प्रतिशत से अधिक सटीकता हासिल नहीं की।

झांग विज्ञान में एआई के भविष्य को लेकर आशावादी हैं, यहां तक ​​कि तथाकथित स्व-ड्राइविंग प्रयोगशालाओं में भी जहां रोबोट अकेले काम करते हैं, लेकिन कहते हैं कि मॉडल अभी तक प्रयोगों को डिजाइन करने के लिए तैयार नहीं हैं। “अब? एक प्रयोगशाला में? मुझे ऐसा नहीं लगता। उन्हें अक्सर सामान्य-उद्देश्यीय कार्यों के लिए प्रशिक्षित किया जाता था: किसी ईमेल को दोबारा लिखना, किसी कागज़ को चमकाना या किसी कागज़ का सारांश तैयार करना। वे इस प्रकार के कार्य बहुत अच्छे से करते हैं। [But] उन्हें इनके बारे में डोमेन ज्ञान नहीं है [laboratory] खतरे.â€

ओपनएआई के एक प्रवक्ता का कहना है, ”हम उस शोध का स्वागत करते हैं जो विज्ञान में एआई को सुरक्षित और भरोसेमंद बनाने में मदद करता है, खासकर उच्च जोखिम वाली प्रयोगशाला सेटिंग्स में।” उन्होंने बताया कि शोधकर्ताओं ने इसके अग्रणी मॉडल का परीक्षण नहीं किया है। शोधकर्ताओं को बेहतर समर्थन देने के लिए इस पेपर में चर्चा किए गए मॉडल की तुलना में GPT-5.2 आज तक का हमारा सबसे सक्षम विज्ञान मॉडल है, जिसमें काफी मजबूत तर्क, योजना और त्रुटि-पहचान है। इसे वैज्ञानिक कार्यों में तेजी लाने के लिए डिज़ाइन किया गया है जबकि मानव और मौजूदा सुरक्षा प्रणालियाँ सुरक्षा-महत्वपूर्ण निर्णयों के लिए ज़िम्मेदार हैं।

Google, डीपसीक, मेटा, मिस्ट्रल और एंथ्रोपिक ने टिप्पणी के अनुरोध का जवाब नहीं दिया।

लंदन के ब्रुनेल विश्वविद्यालय के एलन टकर का कहना है कि जब नए प्रयोगों को डिजाइन करने में मनुष्यों की सहायता के लिए एआई मॉडल का उपयोग किया जाता है तो वे अमूल्य हो सकते हैं, लेकिन इसमें जोखिम भी हैं और मनुष्यों को लूप में रहना चाहिए। “इनका व्यवहार [LLMs] वे निश्चित रूप से किसी भी सामान्य वैज्ञानिक अर्थ में अच्छी तरह से समझ में नहीं आते हैं,” वह कहते हैं। “मुझे लगता है कि एलएलएम की नई कक्षा जो भाषा की नकल करती है – और बहुत कुछ नहीं – स्पष्ट रूप से अनुचित सेटिंग्स में उपयोग की जा रही है क्योंकि लोग उन पर बहुत अधिक भरोसा करते हैं।” पहले से ही इस बात के सबूत हैं कि इंसान आराम से बैठना और स्विच ऑफ करना शुरू कर देता है, जिससे एआई को कड़ी मेहनत करनी पड़ती है लेकिन बिना उचित जांच के।”

कैलिफोर्निया विश्वविद्यालय, लॉस एंजिल्स में क्रेग मेरलिक का कहना है कि उन्होंने हाल के वर्षों में एक सरल परीक्षण चलाया है, जिसमें एआई मॉडल से पूछा गया है कि यदि आप अपने ऊपर सल्फ्यूरिक एसिड गिराते हैं तो क्या करें। सही उत्तर पानी से कुल्ला करना है, लेकिन मेरलिक का कहना है कि उन्होंने पाया है कि एआई हमेशा इसके खिलाफ चेतावनी देता है, गर्मी बढ़ने के कारण प्रयोगों में एसिड में पानी न मिलाने के बारे में असंबद्ध सलाह को गलत तरीके से अपनाता है। हालाँकि, उनका कहना है, हाल के महीनों में मॉडलों ने सही उत्तर देना शुरू कर दिया है।

मेरलिक का कहना है कि विश्वविद्यालयों में अच्छी सुरक्षा प्रथाएँ स्थापित करना महत्वपूर्ण है, क्योंकि कम अनुभव वाले नए छात्रों का आना-जाना लगा रहता है। लेकिन वह अन्य शोधकर्ताओं की तुलना में प्रयोगों को डिजाइन करने में एआई के स्थान के बारे में कम निराशावादी हैं।

“क्या यह इंसानों से भी बदतर है? मेरलिक कहते हैं, ”इन सभी बड़े भाषा मॉडलों की आलोचना करना एक बात है, लेकिन उन्होंने इसे मनुष्यों के प्रतिनिधि समूह के खिलाफ परीक्षण नहीं किया है।” “ऐसे इंसान हैं जो बहुत सावधान हैं और ऐसे इंसान हैं जो नहीं हैं।” यह संभव है कि बड़े भाषा मॉडल कुछ प्रतिशत शुरुआती स्नातकों या अनुभवी शोधकर्ताओं से भी बेहतर होंगे। एक अन्य कारक यह है कि बड़े भाषा मॉडल में हर महीने सुधार हो रहा है, इसलिए इस पेपर के नंबर संभवतः अगले छह महीनों में पूरी तरह से अमान्य हो जाएंगे।”

विषय: