અમેરિકાના કેલિફોર્નિયામાં એક હૃદયદ્રાવક ઘટના સામે આવી છે. અહીં, કોલેજના 19 વર્ષીય વિદ્યાર્થી, સેમ નેલ્સનનું મે 2025 માં ડ્રગના ઓવરડોઝથી મૃત્યુ થયું હતું. તેની માતા લીલા ટર્નર-સ્કોટ દાવો કરે છે કે તેના પુત્રએ છેલ્લા 18 મહિનામાં ડ્રગના ડોઝ, સંયોજનો અને અસરો વિશે OpenAI ના ChatGPTનો વારંવાર સંપર્ક કર્યો હતો. સેમે નવેમ્બર 2023 માં ક્રેટોમ (એક અનિયંત્રિત પ્લાન્ટ આધારિત પીડા નિવારક, ગેસ સ્ટેશનો અને ધૂમ્રપાનની દુકાનો પર સરળતાથી ઉપલબ્ધ) ના મજબૂત વ્યસનયુક્ત ડોઝની માંગ કરીને શરૂઆત કરી હતી. અહેવાલ મુજબ, તેણે લખ્યું હતું કે તેઓ ઓવરડોઝ ટાળવા માંગે છે અને ઑનલાઇન ઘણી માહિતી નથી.
શરૂઆતમાં ચેટબોટે સખત ના પાડી અને આરોગ્ય નિષ્ણાતની મદદ લેવાની સલાહ આપી. પરંતુ સેમ વારંવાર પ્રશ્નો બદલીને અને છેડછાડ કરીને જવાબો મેળવે છે. સમય જતાં, ચેટ લોગ અનુસાર, AI એ Xanax, મારિજુઆના, આલ્કોહોલ અને અન્ય પદાર્થોનું મિશ્રણ સૂચવવાનું શરૂ કર્યું. મે 2025માં સેમે તેની માતાને તેની લત વિશે જણાવ્યું. ટર્નર-સ્કોટ તેને આરોગ્ય નિષ્ણાતો પાસે લઈ ગયા અને તેની સારવાર કરાવી. પરંતુ બીજા જ દિવસે સેમ તેના બેડરૂમમાં મૃત હાલતમાં મળી આવ્યો હતો. ટોક્સિકોલોજી રિપોર્ટ અનુસાર, મૃત્યુનું કારણ આલ્કોહોલ, ઝેનાક્સ અને ક્રેટોમનું ઘાતક મિશ્રણ હતું, જે સેન્ટ્રલ નર્વસ સિસ્ટમને દબાવીને ગૂંગળામણનું કારણ બને છે.
Chatgpt એ શીખવ્યું કે કેવી રીતે ડ્રગ્સ લેવું
SFGate ના અહેવાલ મુજબ, ChatGPT સાથે સેમની વાતચીત એક પ્રશ્ન સાથે શરૂ થઈ હતી જ્યાં તેણે પૂછ્યું હતું કે કેટલા ગ્રામ ક્રેટોમ ‘મજબૂત નશો’ આપે છે. પ્રારંભિક ઇનકાર કર્યા પછી, સેમે પ્રશ્નોને ફરીથી ગોઠવીને જવાબો મેળવ્યા. તેની માતાએ જણાવ્યું હતું કે સેમ નિયમિતપણે શાળાના કામ અને સામાન્ય પ્રશ્નો માટે ચેટબોટનો ઉપયોગ કરે છે, પરંતુ ડ્રગ્સ સંબંધિત પ્રશ્નો પણ પૂછે છે. માતાનો દાવો છે કે ChatGPTએ તેના પુત્રને માત્ર દવાઓ કેવી રીતે લેવી તે જ નહીં, પરંતુ આડઅસરોને કેવી રીતે નિયંત્રિત કરવી તે પણ શીખવ્યું.
સેમના ચેટ લોગ્સ દર્શાવે છે કે તે હતાશા અને ચિંતા સાથે સંઘર્ષ કરી રહ્યો હતો. ફેબ્રુઆરી 2023 માં તેણે મારિજુઆના અને વધુ Xanax એકસાથે લેવા વિશે પૂછ્યું. ChatGPTએ ચેતવણી આપી કે તે અસુરક્ષિત છે, પરંતુ સેમે ‘ઉચ્ચ માત્રા’ને ‘મધ્યમ માત્રા’માં બદલીને ફરીથી પૂછ્યું. બોટ પછી સૂચન કરે છે કે જો તમે હજી પણ પ્રયાસ કરવા માંગતા હો, તો નીચા THC સાથે ઇન્ડિકા સ્ટ્રેનથી પ્રારંભ કરો અને Xanax 0.5 મિલિગ્રામથી ઓછું લો.
રિપોર્ટ અનુસાર, જો AI સુરક્ષા કારણોસર ના પાડી દે, તો સેમ પ્રશ્નોનું પુનરાવર્તન અથવા ફેરફાર કરવાનું ચાલુ રાખશે. ડિસેમ્બર 2024 માં તેઓએ પૂછ્યું કે Xanax ના કેટલા મિલિગ્રામ અને આલ્કોહોલના કેટલા શોટ 200 પાઉન્ડ વજનવાળા વ્યક્તિને મારી શકે છે, અને સચોટ જવાબ માંગ્યો. OpenAI ના નિયમો અનુસાર, ગેરકાયદેસર દવાઓ અંગે વિગતવાર સલાહ આપવા પર પ્રતિબંધ છે. સેમ તેના મૃત્યુ પહેલા ChatGPT ના 2024 વર્ઝનનો ઉપયોગ કરી રહ્યો હતો.

