ઓપનએઆઈ, માઈક્રોસોફ્ટ, ગૂગલ, મેટા અને અન્ય સહિતની મુખ્ય આર્ટિફિશિયલ ઈન્ટેલિજન્સ કંપનીઓએ તેમના AI ટૂલ્સને બાળકોનું શોષણ કરતા અને બાળ જાતીય શોષણ સામગ્રી (CSAM) જનરેટ કરતા રોકવા માટે સંયુક્તપણે વચન આપ્યું છે. આ પહેલનું નેતૃત્વ બાળ-સંરક્ષણ જૂથ થોર્ન અને ઓલ ટેક ઇઝ હ્યુમન દ્વારા કરવામાં આવ્યું હતું, જે જવાબદાર તકનીક પર ધ્યાન કેન્દ્રિત કરતી બિનનફાકારક છે.
AI કંપનીઓના વચનો, થોર્ને જણાવ્યું હતું કે, “ઉદ્યોગ માટે એક અભૂતપૂર્વ મિસાલ સ્થાપિત કરે છે અને જેનરિક AI સાથે બાળકોને જાતીય શોષણથી બચાવવાના પ્રયાસોમાં નોંધપાત્ર કૂદકો રજૂ કરે છે.” પહેલનો ઉદ્દેશ્ય બાળકો સાથે સંકળાયેલી સ્પષ્ટ લૈંગિક સામગ્રીના નિર્માણને રોકવા અને તેને સોશિયલ મીડિયા પ્લેટફોર્મ અને સર્ચ એન્જિન પરથી દૂર કરવાનો છે. થોર્ને કહે છે કે માત્ર 2023માં યુ.એસ.માં શંકાસ્પદ બાળ જાતીય શોષણ સામગ્રીની 104 મિલિયનથી વધુ ફાઇલો ફાઇલ કરવામાં આવી હતી. ગેરહાજર સામૂહિક કાર્યવાહી, જનરેટિવ AI આ સમસ્યાને વધુ ખરાબ બનાવવા માટે તૈયાર છે અને કાયદા અમલીકરણ એજન્સીઓને ડૂબી જશે જેઓ વાસ્તવિક પીડિતોને ઓળખવા માટે પહેલેથી જ સંઘર્ષ કરી રહી છે.
મંગળવારે, થોર્ન અને ઓલ ટેક ઇઝ હ્યુમન એ “સેફ્ટી બાય ડિઝાઇન ફોર જનરેટિવ AI: પ્રિવેન્ટિંગ ચાઇલ્ડ સેક્સ્યુઅલ એક્સપ્લોઇટેશન” નામનું નવું પેપર બહાર પાડ્યું છે, જે વ્યૂહરચનાઓની રૂપરેખા આપે છે અને AI ટૂલ્સ, સર્ચ એન્જિન, સોશિયલ મીડિયા પ્લેટફોર્મનો ઉપયોગ કરે છે, હોસ્ટિંગ સેવાઓ બનાવતી કંપનીઓ માટે ભલામણો કરે છે. . અને વિકાસકર્તાઓએ બાળકોને નુકસાન પહોંચાડવા માટે જેનરિક AI નો ઉપયોગ થતો અટકાવવા પગલાં લેવા જોઈએ.
ભલામણોમાંની એક, ઉદાહરણ તરીકે, કંપનીઓને AI મોડલ્સને તાલીમ આપવા માટે ઉપયોગમાં લેવાતા ડેટા સેટ્સને કાળજીપૂર્વક પસંદ કરવા અને જનરેટિવ AIની વૃત્તિને કારણે માત્ર એક જ CSAM દાખલા ધરાવતા ડેટા સેટને ટાળવા માટે કહે છે ખ્યાલોને જોડવા માટે. થોર્ને સોશિયલ મીડિયા પ્લેટફોર્મ્સ અને સર્ચ એન્જિનોને એવી વેબસાઇટ્સ અને એપ્લિકેશન્સની લિંક્સ દૂર કરવા માટે પણ બોલાવી રહ્યા છે જે લોકોને બાળકોના “નગ્ન” ફોટા પાડવા દે છે, AI-જનરેટેડ બાળ જાતીય શોષણ સામગ્રી ઓનલાઈન બનાવે છે. પેપર મુજબ, AI-જનરેટેડ CSAM નું પૂર “પરાગરજની સમસ્યા” ને વધારીને બાળ જાતીય દુર્વ્યવહારના વાસ્તવિક પીડિતોને ઓળખવાનું વધુ મુશ્કેલ બનાવશે – કાયદા અમલીકરણ એજન્સીઓએ હાલમાં જે સામગ્રીને ક્રમમાં ગોઠવવાની છે તેનો સંદર્ભ.
“આ પ્રોજેક્ટનો હેતુ એ સ્પષ્ટ કરવાનો હતો કે તમારે તમારા હાથ ઉંચા કરવાની જરૂર નથી,” રેબેકા પોર્ટનોફ, ડેટા સાયન્સના થોર્નના વાઇસ પ્રેસિડેન્ટે જણાવ્યું હતું. વોલ સ્ટ્રીટ જર્નલ, “અમે આ ટેક્નોલોજીના કોર્સને એવા બિંદુએ બદલવા માટે સક્ષમ બનવા માંગીએ છીએ કે જ્યાં આ ટેક્નોલોજીના વર્તમાન ગેરફાયદા તેના ઘૂંટણ પર આવી જાય.”
પોર્ટનોફે જણાવ્યું હતું કે, કેટલીક કંપનીઓ પહેલેથી જ બાળકો સાથે સંકળાયેલી છબીઓ, વિડિયો અને ઑડિયોને પુખ્ત સામગ્રી ધરાવતા ડેટા સેટમાંથી અલગ કરવા માટે સંમત થઈ હતી, જેથી તેમના મોડલને બંનેને જોડતા અટકાવી શકાય. અન્ય લોકો AI-જનરેટેડ કન્ટેન્ટને ઓળખવા માટે વોટરમાર્ક પણ ઉમેરે છે, પરંતુ આ પદ્ધતિ ફૂલપ્રૂફ નથી – વોટરમાર્ક અને મેટાડેટા સરળતાથી દૂર કરી શકાય છે.
આ લેખ મૂળ રૂપે Engadget પર દેખાયો https://www.engadget.com/the-worlds-leading-ai-companies-pledge-to-protect-the-safety-of-children-online-213558797.html?src=rss પ્રકાશિત પર