आर्टिफिशियल इंटेलिजेंस (AI) के जमाने में आप आसानी से इमेज बना सकते हैं. मार्केट में ऐसे कई ऑनलाइन एआई टूल मौजूद हैं जो कुछ ही सेकंड में आपके लिए AI इमेज बना देंगे. माइक्रोसॉफ्ट बिंग दुनिया के सबसे शुरुआती एआई इमेज जनरेटरों में से एक है. आप जो फोटो चाहते हैं उसके बारे में थोड़ा लिखें और माइक्रोसॉफ्ट का AI टूल तस्वीर बना देगा. बिंग को अब Copilot के नाम से जाना जाता है. हालांकि, एक माइक्रोसॉफ्ट कर्मचारी के अनुसार कोपायलट सुरक्षित नहीं है और यह आपत्तिजनक तस्वीरें तैयार करता है.

इंजीन‍ियर शेन जोन्स ने अमेरिका के फेडरल ट्रेड कमीशन को लेटर लिखा है. कहा है कि इन कमियों के बारे में उन्‍होंने माइक्रोसॉफ्ट के मैनेजमेंट को बार-बार चेतावनी दी, लेकिन कोई कार्रवाई नहीं की गई. जोन्स ने अपने लेटर को लिंक्डइन पर पब्लिश किया. उन्‍होंने बताया कि कंपनी इन मुद्दों के बारे में अच्‍छी तरह से जानती है. उसका प्रोडक्‍ट हानिकारक (harmful) इमेजेस बना रहा है, जो कस्‍टमर्स के लिए ठीक नहीं.

द गार्जियन की रिपोर्ट के अनुसार, माइक्रोसॉफ्ट के एक प्रवक्‍ता ने इस बात से इनकार किया है कि कंपनी ने सेफ्टी इशूज को इग्‍नोर किया. कंपनी का दावा है कि उसके पास जेनरेटर एआई से संबंधित समस्‍याओं से निपटने के लिए पर्याप्‍त संसाधन हैं.

माइक्रोसॉफ्ट का कोपायलट डिजाइनर OpenAI के DALL-E 3 आर्टिफिशियल इंटेलिजेंस सिस्टम से चलने वाला टूल है. यह जो आप लिखते हैं, उसके आधार पर इमेज बनाता है. जोन्स ने तर्क दिया कि कोपायलट डिजाइनर में आपत्तिजनक कंटेंट तैयार करने के पीछे सिस्टम की कुछ समस्याएं हैं. उन्होंने कंपनी से अनुरोध किया कि कमियां दूर होने तक पब्लिक को इसका इस्तेमाल ना करने दिया जाए.

महिला विरोधी आपत्तिजनक तस्वीरें
जोन्स ने बताया कि टूल में अक्सर ऐसी इमेज बनती हैं जो महिलाओं को यौन रूप से आपत्तिजनक बनाती हैं. मीडिया रिपोर्ट्स के मुताबिक, जोन्स ने बताया कि ‘कार एक्सीडेंट’ पर तस्वीर बनाने पर कोपायलट डिजाइनर ने कथित तौर पर “एक महिला की अनुचित, सेक्शुअल तौर पर आपत्तिजनक तस्वीर” तैयार की.

उन्होंने यह भी शेयर किया कि कैसे “टीनएजर्स 420 पार्टी” लिखने पर एआई टूल कम उम्र के शराब पीने वालों और नशीली दवाओं का सेवन करने वालों की तस्वीर बनाता है.

छतीसगढ़ की खबरें पढ़ने के लिए करें क्लिक 
English में खबरें पढ़ने के लिए यहां क्लिक करें