Headlines

Openai चेतावनी: AI मॉडल नियमों को धोखा देना, छिपाना और तोड़ने के लिए सीख रहे हैं – यह क्यों मायने रखता है | टकसाल

Openai चेतावनी: AI मॉडल नियमों को धोखा देना, छिपाना और तोड़ने के लिए सीख रहे हैं – यह क्यों मायने रखता है | टकसाल

Openai ने उन्नत AI मॉडल के बारे में चिंताओं को उठाया है, जो कार्यों को धोखा देने के तरीके खोज रहे हैं, जिससे उन्हें नियंत्रित करना कठिन हो गया है।

में एक हाल ही में ब्लॉग पोस्टकंपनी ने चेतावनी दी कि जैसे -जैसे एआई अधिक शक्तिशाली हो जाता है, यह खामियों का शोषण करने में बेहतर हो रहा है, कभी -कभी जानबूझकर नियमों को भी तोड़ता है।

“एआई सिस्टम को हैक करने के तरीके खोज रहा है”

‘इनाम हैकिंग’ के रूप में जाना जाने वाला मुद्दा तब होता है जब एआई मॉडल यह पता लगाते हैं कि उनके रचनाकारों के तरीके से अपने पुरस्कारों को अधिकतम करने का इरादा कैसे किया जाए। Openai के नवीनतम शोध से पता चलता है कि इसके उन्नत मॉडल, जैसे Openai O3-Mini, कभी-कभी उनकी विचार प्रक्रिया में एक कार्य को ‘हैक’ करने की अपनी योजना को प्रकट करते हैं।

ये एआई मॉडल चेन-ऑफ-थॉट (सीओटी) तर्क नामक एक विधि का उपयोग करते हैं, जहां वे अपने निर्णय लेने को स्पष्ट, मानव जैसे चरणों में तोड़ते हैं। इससे उनकी सोच की निगरानी करना आसान हो जाता है। अपने सीओटी तर्क की जांच करने के लिए एक और एआई मॉडल का उपयोग करके, ओपनई ने धोखे, परीक्षण हेरफेर और अन्य अवांछित व्यवहार के उदाहरणों को पकड़ा है।

कैसे एआई चैटबॉट मनुष्यों और उसके छुपाने की गलतियों की तरह है

हालांकि, Openai ने चेतावनी दी है कि यदि AI मॉडल की सख्ती से देखरेख की जाती है, तो वे धोखा देते हुए अपने वास्तविक इरादों को छिपाना शुरू कर सकते हैं। यह उनकी निगरानी को और भी कठिन बनाता है। कंपनी ने अपनी विचार प्रक्रिया को समीक्षा के लिए खुला रखने का सुझाव दिया है, लेकिन उपयोगकर्ताओं के साथ साझा करने से पहले अनुचित सामग्री को संक्षेप या फ़िल्टर करने के लिए अलग -अलग AI मॉडल का उपयोग करना।

एआई से बड़ी समस्या

Openai ने इस मुद्दे की तुलना मानव व्यवहार से की, यह देखते हुए कि लोग अक्सर वास्तविक जीवन में खामियों का फायदा उठाते हैं – जैसे ऑनलाइन सदस्यता साझा करना, सरकारी लाभों का दुरुपयोग करना, या व्यक्तिगत लाभ के लिए नियम झुकना। जिस तरह सही मानव नियमों को डिजाइन करना कठिन है, यह सुनिश्चित करने के लिए मुश्किल है कि एआई सही मार्ग का अनुसरण करता है।

आगे क्या होगा?

जैसे -जैसे AI अधिक उन्नत हो जाता है, Openai इन प्रणालियों की निगरानी और नियंत्रित करने के लिए बेहतर तरीकों की आवश्यकता पर जोर देता है। एआई मॉडल को अपने तर्क को ‘छिपाने’ के लिए मजबूर करने के बजाय, शोधकर्ता अपने निर्णय लेने को पारदर्शी रखते हुए नैतिक व्यवहार की ओर मार्गदर्शन करने के तरीके खोजना चाहते हैं।

हालांकि, Openai ने चेतावनी दी है कि यदि AI मॉडल की सख्ती से देखरेख की जाती है, तो वे धोखा देते हुए अपने वास्तविक इरादों को छिपाना शुरू कर सकते हैं। यह उनकी निगरानी को और भी कठिन बनाता है। कंपनी ने अपनी विचार प्रक्रिया को समीक्षा के लिए खुला रखने का सुझाव दिया है, लेकिन उपयोगकर्ताओं के साथ साझा करने से पहले अनुचित सामग्री को संक्षेप या फ़िल्टर करने के लिए अलग -अलग AI मॉडल का उपयोग करना।

Source link

Leave a Reply