ડીપફેકનો ટેકનોલોજીનો ઉપયોગ હવે લોકોને બદનામ કરવા અને તેમની પ્રતિષ્ઠાને નુકસાન પહોંચાડવા માટે થઈ રહ્યો છે. તાજેતરમાં કરણ જોહર, અભિષેક બચ્ચન અને ઐશ્વર્યા રાય બચ્ચન જેવાં ફિલ્મી સિતારાઓને પોતાના ફોટા તથા વિડિયોનો દુરુપયોગ રોકવા માટે દિલ્હી હાઈ કોર્ટમાં કેસ ફાઈલ કરવો પડ્યો હતો. કલ્પના કરો કે ઇન્ટરનેટ પર તમારા ચહેરા અને અવાજની નકલ કરતો એક વિડિયો ફરતો હોય, ભલે તમે તે વિડિયો ક્યારેય રેકોર્ડ કર્યો ન હોય. હવે તે વિડિયો તમારા પરિવાર અને સાથીદારો સુધી પહોંચી ગયો છે.
આવા નકલી વિડિયો, ઓડિયો ક્લિપ્સ અથવા ફોટાને ડીપફેક કહેવામાં આવે છે. આ વિડિયો કૃત્રિમ બુદ્ધિનો ઉપયોગ કરીને બનાવવામાં આવ્યા છે. તે એટલો વાસ્તવિક લાગે છે કે વાસ્તવિક અને નકલી વચ્ચેનો તફાવત જણાવવો ઘણી વાર મુશ્કેલ હોય છે. આ ટેકનોલોજી હવે સરળતાથી ઉપલબ્ધ છે અને ઘણા અભિનેતાઓ, રાજકારણીઓ અને અન્ય અગ્રણી વ્યક્તિઓ પણ તેનો ભોગ બન્યા છે. વડા પ્રધાન નરેન્દ્ર મોદી, ગૃહ પ્રધાન અમિત શાહ, વિપક્ષી નેતા રાહુલ ગાંધી અને ઉત્તર પ્રદેશના મુખ્ય મંત્રી યોગી આદિત્યનાથને બદનામ કરતાં અનેક ડીપફેક વિડિયો સોશ્યલ મિડિયામાં છે.
ડીપફેક શબ્દ સામાન્ય રીતે AI-જનરેટેડ વિડિયો , છબી અથવા ઑડિઓ સામગ્રીનો ઉલ્લેખ કરે છે, જે વાસ્તવિક જીવનની વ્યક્તિ અથવા દૃશ્યની નકલ કરવા માટે રચાયેલી છે. આ સામગ્રી શરૂઆતથી નવી બનાવવામાં આવી શકે છે અથવા પહેલાંથી અસ્તિત્વમાં રહેલી સામગ્રી સાથે છેડછાડ કરીને બનાવવામાં આવી શકે છે. બધા ડીપફેક બુદ્ધિગમ્ય નથી હોતા. જો કે, જેમ જેમ ટેકનોલોજીમાં સુધારો થાય છે, તેમ તેમ તે વધુ વાસ્તવિક અને પારખવા મુશ્કેલ બની રહ્યાં છે.
જેમ જેમ ડીપફેક વધુ વાસ્તવિક અને વ્યાપક બનતાં જાય છે, તેમ તેમ શું સાચું છે અને શું નકલી છે તે કહેવું મુશ્કેલ બનતું જાય છે, જેના કારણે તમામ પ્રકારના માહિતી સ્રોતો પર લોકોનો વિશ્વાસ ઘટી જવાનો ભય રહે છે. ચૂંટણીમાં લાભ માટે ખોટી માહિતી ફેલાવતાં ડીપફેક અને જાહેર વ્યક્તિઓની નકલ કરતાં ડીપફેકના ફેલાવા અંગે ખાસ ચિંતા છે. ખાસ કરીને ડીપફેક પોર્નોગ્રાફી જેવી સ્પષ્ટ સામગ્રીને કારણે ચિંતા થાય છે, જે વાસ્તવિક જીવનના વિષયો પર આધારિત હોય છે.
ડેનિશ સરકાર ડીપફેક્સ પર કડક કાર્યવાહી કરવા માટે તેના કોપીરાઈટ કાયદામાં સુધારો કરી રહી છે. કૉપિરાઇટ કાયદા હેઠળ, કોઈ પણ મૂળ કૃતિ તેના સર્જકની માલિકીની છે. કોઈ પણ વ્યક્તિ અથવા કંપની માટે તેની નકલ કરવી અને તેનું વિતરણ કરવું ગેરકાયદેસર છે. ડેનિશ સરકાર હવે કાયદામાં સુધારો કરવા જઈ રહી છે અને લોકોના ચહેરા, અવાજો અને હાવભાવને કોપીરાઈટના દાયરામાં સામેલ કરવા જઈ રહી છે.
ડિજિટલ કોપીરાઈટ બાબતોમાં નિષ્ણાત ડેનિશ કાયદા પેઢીના વકીલ ગિટ્ટે લોવગ્રેન લાર્સન કહે છે કે કૃત્રિમ બુદ્ધિ હવે સામાન્ય લોકોના મોબાઇલ ફોન સુધી પહોંચી ગઈ છે અને તેના દ્વારા ડીપફેક સામગ્રીનું નિર્માણ ચિંતાનો વિષય છે. જો કોઈ વ્યક્તિ તેની પરવાનગી વિના તેના ચહેરા અથવા અવાજની નકલ કરવા માટે AI નો ઉપયોગ કરીને વિડિયો અથવા ઑડિયો બનાવે છે અને તેને શેર કરે છે, તો તે વ્યક્તિ તેને દૂર કરવાની માંગણી કરી શકે છે અને વળતર પણ માંગી શકે છે. આ કાયદો હજુ સુધી સંસદ દ્વારા પસાર કરવામાં આવ્યો નથી, પરંતુ તેના હેઠળ આવા વિડિયોઝને ગેરકાયદેસર જાહેર કરવામાં આવ્યા છે. ડેનિશ કોર્ટ નક્કી કરશે કે આ કાયદાનું ઉલ્લંઘન કરનારાંઓને શું સજા આપવી.
માનવ દ્વારા સર્જાયેલી કલા, સંગીત અને સાહિત્યના કૉપિરાઇટનો ખ્યાલ સમજી શકાય તેવો છે પરંતુ ચહેરા પર કૉપિરાઇટનો ઉપયોગ સરળતાથી સમજી શકાતો નથી. ડૉ. એલિના ટ્રેપોવા એમ પણ કહે છે કે તેને માનવ ચહેરા પર લગાવવું થોડું વિચિત્ર છે, કારણ કે આપણે આપણો ચહેરો બનાવતા નથી પણ તેની સાથે જન્મીએ છીએ. જો તેનો ઉદ્દેશ સોશ્યલ મિડિયા વેબસાઇટ્સ પર ડીપફેક સામગ્રીને રોકવાનો છે, તો માર્ગમાં બીજો એક અવરોધ છે.
મોટા ભાગના સોશ્યલ મિડિયા પ્લેટફોર્મ આંતરરાષ્ટ્રીય છે, જેનો અર્થ એ છે કે ઘણા દેશોએ સાથે મળીને આ કાયદો લાગુ કરવો પડશે. ડૉ. એલિના ટ્રેપોવા કહે છે કે સામાન્ય રીતે બધા દેશોના પોતાના કોપીરાઈટ કાયદા હોય છે અને તેઓ તેનો અમલ પણ કરતા આવ્યા છે, પરંતુ ટેકનોલોજીના વિકાસ સાથે ઘણા દેશોએ સાથે મળીને કોપીરાઈટ કાયદાઓને લાગુ કરવા સંમતિ આપી છે. ડીપફેક બનાવવા માટે ઘણી પદ્ધતિઓ છે.
સૌથી વધુ લોકપ્રિય પદ્ધતિઓમાંની એક જનરેટિવ એડવર્સેરિયલ નેટવર્ક (GAN) નો ઉપયોગ છે, જે અલ્ગોરિધમ્સનો ઉપયોગ કરીને પેટર્ન ઓળખવા માટે પોતાને તાલીમ આપે છે, જેનો ઉપયોગ નકલી છબીઓ બનાવવા માટે પણ થઈ શકે છે. બીજી પદ્ધતિ એઆઈ એલ્ગોરિધમ્સ છે જેને એન્કોડર્સ કહેવાય છે, જેનો ઉપયોગ ફેસ-રિપ્લેસમેન્ટ અને ફેસ-સ્વેપિંગ ટેકનોલોજીમાં થાય છે. ડીકોડર ચહેરાઓની છબીઓ મેળવે છે અને સ્વેપ કરે છે, જે એક ચહેરાને સંપૂર્ણપણે અલગ બોડી પર સુપરઇમ્પોઝ કરવામાં સક્ષમ બનાવે છે. ડીપફેક્સ ઓટોએન્કોડર્સનો ઉપયોગ કરે છે, જે ક્લાસિક એન્કોડર્સના કમ્પ્રેશન અને ડિકમ્પ્રેશનથી આગળ વધે છે, જેનાથી સાયબર ગુનેગારો સંપૂર્ણપણે નવી છબીઓ બનાવી શકે છે.
સાયબર ગુનેગારો ડીપફેક ટેકનોલોજીનો ઉપયોગ કૌભાંડો, ખોટા દાવાઓ અને છેતરપિંડી બનાવવા માટે કરી શકે છે જે સંસ્થાઓને નબળી પાડે છે અને અસ્થિર કરે છે. ઉદાહરણ તરીકે, કોઈ હુમલાખોર એક વરિષ્ઠ એક્ઝિક્યુટિવનો ખોટો વિડિયો બનાવી શકે છે, જેમાં તે નાણાંકીય ગુનાઓ જેવી ગુનાહિત પ્રવૃત્તિમાં સંડોવાયો હોવાનું કબૂલ કરે છે અથવા સંસ્થાની પ્રવૃત્તિ વિશે ખોટા દાવા કરે છે. ડીપફેકને ખોટા સાબિત કરવા માટે સમય અને પૈસાનો બગાડ થવા ઉપરાંત, વ્યવસાયના બ્રાન્ડ, જાહેર પ્રતિષ્ઠા અને શેરના ભાવ પર મોટી અસર કરી શકે છે. ડીપફેક દ્વારા ઉદ્ભવતો એક મોટો ખતરો સંમતિ વિનાની પોર્નોગ્રાફી છે, જે ઇન્ટરનેટ પર ૯૬ ટકા જેટલા ડીપફેકનો હિસ્સો ધરાવે છે. આમાંથી મોટા ભાગના ડીપફેક સેલિબ્રિટીઓને લક્ષ્ય બનાવે છે.
ડીપફેક ટેકનોલોજીનો ઉપયોગ રીવેન્જ પોર્નના બનાવટી વિડિયો બનાવવા માટે પણ થાય છે. ડીપફેક વિડિયોનો ઉપયોગ ડોનાલ્ડ ટ્રમ્પ અને બરાક ઓબામા જેવા વિશ્વનેતાઓના નકલી વિડિયો ફેલાવવા માટે કરવામાં આવ્યો છે, જેનાથી ચિંતા ઊભી થાય છે કે તેનો ઉપયોગ ચૂંટણીમાં હેરાફેરી માટે થઈ શકે છે. ડીપફેક ટેકનોલોજીનો ઉપયોગ નવી ઓળખ બનાવવા અને વાસ્તવિક લોકોની ઓળખની ચોરી કરવા માટે થઈ શકે છે. હુમલાખોરો ખોટા દસ્તાવેજો બનાવવા અથવા તેમના પીડિતનો અવાજ બનાવટી બનાવવા માટે ટેકનોલોજીનો ઉપયોગ કરે છે, જે તેમને તે વ્યક્તિ હોવાનો ડોળ કરીને એકાઉન્ટ બનાવવા અથવા ઉત્પાદનો ખરીદવા માટે સક્ષમ બનાવે છે.
ડીપફેક શોધવાનું કામ વધુ ને વધુ પડકારજનક બની રહ્યું છે, કારણ કે સામગ્રી વધુ વ્યાપક અને વાસ્તવિક બની રહી છે. ડીપફેક બનાવવા માટે ઉભરતી જનરેટિવ AI પદ્ધતિઓ સાથે તાલમેળ રાખવા માટે ડિટેક્ટર્સને સંઘર્ષ કરવો પડી શકે છે, જ્યારે ઓનલાઈન અને મિડિયામાં સિન્થેટિક સામગ્રીનું પ્રમાણ વધુ હોવાથી તે બધાને તપાસવાનું મુશ્કેલ બને છે. ડીપફેક શોધવાની ઘણી રીતો છે. કેટલીક ડીપફેક કરેલી છબીઓમાં સ્પષ્ટ દૃશ્ય અસંગતતાઓ હોય છે, જેમ કે અવાજની પેટર્નમાં તફાવત અથવા સંપાદિત અને સંપાદિત ન કરેલા ભાગો વચ્ચે રંગનો તફાવત. વિડિયો અને ઑડિયો ડીપફેક્સ સમય-આધારિત અસંગતતાઓ દ્વારા પારખી શકાય છે, જેમ કે વાણી અને મોંની ગતિવિધિઓ વચ્ચે મેળ ખાતો નથી.
GAN અને પ્રસરણ મોડેલ્સ જેવી ડીપફેક જનરેશન પદ્ધતિઓ પણ છબીઓ અથવા વિડિઓઝના પિક્સેલ્સમાં શોધી શકાય તેવા ફિંગરપ્રિન્ટ્સ છોડી શકે છે. ડીપફેક શોધવાનો બીજો રસ્તો તેમની વિતરણ ચેનલો દ્વારા છે. ઉદાહરણ તરીકે જ્યારે તેનો ઉપયોગ દુર્ભાવનાપૂર્ણ હેતુઓ માટે થાય છે, ત્યારે ડીપફેક ઘણી વાર બોટ અને ટ્રોલ એકાઉન્ટ દ્વારા સોશ્યલ મિડિયા પર પ્રસારિત થાય છે. આ એકાઉન્ટ તેમના મેટાડેટા (ડેટાનો સમૂહ જે ડેટાના એક અથવા વધુ પાસાંઓ વિશે માહિતી પ્રદાન કરે છે) અને વર્તન દ્વારા આંશિક રીતે શોધી શકાય છે, જેનાથી ડીપફેકને સીધા જ શોધવાની જરૂર રહેતી નથી.
– આ લેખમાં પ્રગટ થયેલાં વિચારો લેખકનાં પોતાના છે.