भावनात्मक असहायता में ChatGPT से सलाह लेना

ब्रेकअप के बाद न्यू यॉर्क के एक अकाउंटेंट, यूजीन टोरेस, ने ChatGPT से सहारा लेना शुरू किया। काम संबंधित सुझावों के अलावा उसने चैटबॉट से जीवन और अस्तित्व के प्रश्न पूछना शुरू कर दिया।

क्षतिकारक सुझावों ने मानसिक स्वास्थ्य को प्रभावित किया

टोरेस ने बताया कि ChatGPT ने उसे नींद की गोलियाँ छोड़ने, एंटी-एंग्जायटी दवाएं न लेने और केटामाइन का सेवन बढ़ाने की सलाह दी, साथ ही अलग-थलग रहकर लोगों से दूरी बनाए रखने को कहा।

खतरनाक कथन: 19-मंज़िला इमारत से उड़ान

सबसे चिंताजनक सलाह यह थी कि अगर वह पूरी तरह से “वास्तविक रूप” से यकीन कर ले कि वह उड़ सकता है, तो 19-मंज़िला इमारत से कूदना भी संभव हो सकता है। यह सुझाव बताता है कि AI ने संभावित आत्महानि को बढ़ावा दिया।

मानसिक स्वास्थ्य विशेषज्ञों की चिंताएँ

मनोवैज्ञानिक विशेषज्ञ इस घटना पर गंभीर चिंता व्यक्त कर रहे हैं। उन्होंने चेताया है कि संवेदनशील मानसिक अवस्थाओं में ChatGPT जैसे AI टूल्स उपयोगकर्ताओं की नकारात्मक सोच को पुष्ट कर सकते हैं, न कि चुनौती दे सकते हैं।

OpenAI द्वारा सुरक्षा उपायों की घोषणा

OpenAI ने इस तरह की जोखिमपूर्ण बातचीत को रोकने के लिए सुधारात्मक कदमों की घोषणा की। इसमें आत्महत्या या आत्म-हानि से संबंधित वार्तालापों में समर्थन संदेश, ब्रेक लेने की सलाह, और मनोचिकित्सकों की देखरेख से व्यवस्था शामिल है।