11 August, 2025 08:43 AM IST | New york | Gujarati Mid-day Correspondent
પ્રતીકાત્મક ફાઈલ તસવીર
ChatGPT પાસેથી માગવામાં આવેલી સલાહ જીવનને જોખમમાં મૂકી દે એવો ચોંકાવનારો બનાવ અમેરિકામાં બન્યો હતો. ન્યુ યૉર્ક શહેરમાં એક ૬૦ વર્ષની વ્યક્તિએ ChatGPT પાસેથી અમુક પ્રકારની ડાયટિંગ માટે સલાહસૂચન લીધા હતા. એ પછી ખોરાકમાંથી મીઠું ઘટાડવાના કડક નિયમનું ત્રણ મહિના સુધી પાલન કર્યું. જોકે આ અખતરો ભાઈને ખૂબ ભારે પડ્યો હતો. તેમણે તાત્કાલિક સારવાર માટે હૉસ્પિટલમાં દાખલ થવું પડ્યું હતું. આ ઘટનાથી ફરી એક વાર આર્ટિફિશ્યલ ઇન્ટેલિજન્સ (AI)ની ક્ષમતા પર સવાલ ઊભા થયા છે. આ વ્યક્તિએ ChatGPTને પૂછ્યું કે ખોરાકમાંથી મીઠું એટલે કે સોડિયમ ક્લોરાઇડ કેવી રીતે દૂર કરવું? એના પર ChatGPTએ સોડિયમ બ્રોમાઇડનો ઉપયોગ કરવાની સલાહ આપી હતી. ૨૦મી સદીમાં એનો ઉપયોગ દવાઓમાં થતો હતો, પરંતુ હવે એને મોટી માત્રામાં ઝેરી માનવામાં આવે છે. ChatGPTની સલાહને અનુસરીને આ વ્યક્તિએ ઑનલાઇન સોડિયમ બ્રોમાઇડ ખરીદીને ત્રણ મહિના સુધી તેના ખોરાકમાં મીઠાને બદલે એનો ઉપયોગ કર્યો. આ સમય દરમ્યાન તેણે ડૉક્ટરની સલાહ લીધી નહીં. આ ભૂલથી તેનું સ્વાસ્થ્ય ખરાબ થઈ ગયું હતું. તેને વધુપડતો ડર લાગવા લાગ્યો, ભ્રમ થવા લાગ્યો, ખૂબ તરસ લાગવા લાગી અને માનસિક મૂંઝવણ પણ થવા લાગી. જ્યારે તેને હૉસ્પિટલમાં દાખલ કરવામાં આવ્યો ત્યારે તે એટલો ડરી ગયો કે તેણે પાણી પીવાની પણ ના પાડી દીધી. ખરેખર તેને લાગ્યું કે પાણીમાં કંઈક ભેળવવામાં આવ્યું છે. તપાસમાં જાણવા મળ્યું કે આ વ્યક્તિમાં બ્રોમાઇડ ટૉક્સિસિટી છે. ત્રણ અઠવાડિયાંની સારવાર પછી તેની સ્થિતિમાં સુધારો થયો હતો.