Google Gemini AI: गूगल अपने AI मॉडल Gemini के उत्तरों को और अधिक प्रभावी और सटीक बनाने के लिए Anthropic के Claude का सहारा ले रहा है. TechCrunch की रिपोर्ट के अनुसार, गूगल द्वारा नियुक्त ठेकेदारों को एक विशेष प्लेटफॉर्म पर Gemini और Claude के उत्तरों की तुलना करने का कार्य सौंपा गया है. उन्हें उपयोगकर्ता द्वारा दिए गए एक प्रॉम्प्ट पर दोनों मॉडलों के उत्तरों का मूल्यांकन करने के लिए 30 मिनट का समय मिलता है. यह मूल्यांकन सत्यता और विस्तृतता जैसे मापदंडों पर आधारित होता है.

Claude की सुरक्षा सेटिंग्स सबसे सख्त

मूल्यांकन के दौरान, ठेकेदारों ने यह नोट किया कि कुछ उत्तरों में “मैं Claude हूं, जिसे Anthropic ने बनाया है” जैसे संदर्भ सामने आए. इसके अलावा, Gemini और Claude की तुलना में पाया गया कि Claude की सुरक्षा सेटिंग्स अन्य मॉडलों की तुलना में सबसे सख्त हैं.

जब असुरक्षित प्रॉम्प्ट प्रस्तुत किए गए, तो Claude ने जवाब देने से मना कर दिया, जबकि Gemini ने इन प्रॉम्प्ट्स को “बड़ी सुरक्षा उल्लंघन” के रूप में पहचानते हुए “नग्नता और बंधन” जैसी सामग्री का जिक्र किया.

मानक इंडस्ट्री प्रथाओं के तहत तुलना (Google Gemini AI)

आमतौर पर, तकनीकी कंपनियां अपने AI मॉडलों के प्रदर्शन का आकलन इंडस्ट्री बेंचमार्क के जरिए करती हैं. Anthropic के सेवा नियमों के अनुसार, उपयोगकर्ताओं को Claude का उपयोग किसी प्रतिस्पर्धी उत्पाद या सेवा बनाने या प्रतिस्पर्धी AI मॉडल प्रशिक्षित करने के लिए अनुमति नहीं है, जब तक कि इसकी स्वीकृति न हो.

हालांकि, यह स्पष्ट नहीं है कि यह प्रतिबंध निवेशकों पर लागू होता है या नहीं. इस संदर्भ में, Google DeepMind की प्रवक्ता शिरा मैकनामारा ने कहा, “मॉडल आउटपुट की तुलना करना मानक इंडस्ट्री प्रथाओं के तहत आता है. लेकिन यह कहना गलत होगा कि हमने Gemini को प्रशिक्षित करने के लिए Anthropic मॉडलों का उपयोग किया है.”