Editorial

ડીપફેક વિડીયો પર અંકુશ નહીં આવે તો સમાજમાં અશાંતિ ઊભી થશે

જુદી જુદી સમસ્યાઓનો સામનો કરી રહેલા ભારતમાં હવે એક નવી સમસ્યા ઊભી થઇ છે. આ સમસ્યા માત્ર ભારતની નથી પરંતુ તે વૈશ્વિક છે અને આ ગંભીર સમસ્યા છે ડીપફેક વીડિયો. વડાપ્રધાન નરેન્દ્ર મોદીએ ડીપફેક વીડિયોને ગંભીર મુદ્દો ગણાવ્યા પછી કેન્દ્ર સરકાર સક્રિય બની છે. ડીપફેક મુદ્દે સરકાર ટૂંક સમયમાં સોશિયલ મીડિયા પ્લેટફોર્મ સાથે બેઠક કરશે તેમ જણાવતા કેન્દ્રીય આઈટી મંત્રી અશ્વિની વૈષ્ણવે ચેતવણી આપી છે કે, ડીપફેક વીડિયો દૂર કરવા સોશિયલ મીડિયા પ્લેટફોર્મ પર્યાપ્ત પગલાં નહીં લે તો તેમને ઈમ્યુનિટીનો લાભ નહીં મળે અને તેમની સામે પણ કાર્યવાહી થશે.

તાજેતરમાં રશ્મિકા મંદાનાથી લઈને કાજોલ સુધીની અભિનેત્રીઓ ડીપફેક વીડિયોનો ભોગ બનતા તેમણે ટેક્નોલોજીના દુરુપયોગ અંગે ચિંતા વ્યક્ત કરી હતી. પીએમ મોદીએ પણ શુક્રવારે આર્ટિફિશિયલ ઈન્ટેલિજન્સની મદદથી બનાવવામાં આવતા ડીપફેક કન્ટેન્ટ દેશમાં મોટી કટોકટી સર્જી શકે છે અને સમાજમાં અશાંતિ ઊભી કરી શકે છે તેવી આશંકા વ્યક્ત કરી હતી. દરમિયાન રાષ્ટ્રપતિ દ્રૌપદી મુર્મૂએ પણ ડીપફેકની સમસ્યા અને ગૂનેગારો દ્વારા આર્ટિફિશિયલ ઈન્ટેલિજન્સનો દુરુપયોગ કરીને બનાવાતા કન્ટેન્ટ અંગે ચિંતા વ્યક્ત કરી હતી.ડીપફેક શું છે? તે પણ અહીં જાણવું ખૂબ જ જરૂરી છે.

“ડીપફેક” (“ગહન લર્નિંગ + નકલી”) શબ્દ એ જ્યારે યુઝરની ઑનલાઇન કૉમ્યુનિટીએ એકબીજા સાથે નકલી સેલિબ્રિટી પોર્નોગ્રાફીને શેર કરવાનું શરૂ કરેલું ત્યારે ઉદભવ્યો હોવાની શક્યતા છે. આ બનાવવા માટે, આર્ટિફિશિયલ ઇન્ટેલિજન્સ સોફ્ટવેરનો ઉપયોગ અવિશ્વસનીય રીતે વાસ્તવિક-દેખાતા બનાવટી કન્ટેન્ટનું નિર્માણ કરવા માટે થાય છે, જેનો હેતુ વાસ્તવિકના રૂપમાં સામે આવવાનો હોય છે.

કન્ટેન્ટની નોંધપાત્ર માત્રા (દા.ત., કોઈ વ્યક્તિનો ઘણા કલાકોનો વીડિયો, કોઈ વ્યક્તિના હજારો ફોટા)નું વિશ્લેષણ કરવા કમ્પ્યુટિંગ શક્તિનો ઉપયોગ કરીને લર્નિંગ મોડેલ બનાવવામાં આવે છે, જેમાં ચહેરાનાં મુખ્ય લક્ષણો અને શારીરિક હાવભાવથી થતી અભિવ્યક્તિ/સ્થિતિ પર ચોક્કસ ધ્યાન આપવામાં આવે છે. જો કે ડીપફેકને ઓળખી શકાય છે. દરેક વખતે નહીં પરંતુ મોટાભાગના કિસ્સામાં તેને ઓળખી શકાય છે. જો કે, ટૅક્નૉલૉજીમાં જેમ-જેમ પ્રગતિ થતી જાય છે તેમ-તેમ ડીપફેક ઉત્તરોત્તર વાસ્તવિક બની રહ્યા છે, ત્યારે ફોટા અથવા વીડિયો કન્ટેન્ટમાં અમુક માહિતીને ધ્યાનપૂર્વક શોધીને ઘણી વાર ડીપફેકને શોધી કાઢવામાં આવે છે આંખો કે જે સહજતાથી પલકારા ઝબકાવતી ન હોવાની લાગે તેને ઝૂમ કરવું અને મોઢા, ગરદન/કોલર અથવા છાતીની આસપાસ અસ્વાભાવિક અથવા ઝાંખી કિનારીઓને શોધવી તે મદદરૂપ થઈ શકે છે.

વીડિયોમાં, વ્યક્તિ ક્લિપને ધીમી કરીને જોઈ શકે છે અને સંભવિત લિપ-સિંકિંગ અથવા જિટરિંગ જેવી વિઝ્યુઅલ અસંગતતાઓને શોધી શકે છે. તદુપરાંત, એવી કોઈ પણ ક્ષણો માટે નજર જમાવી રાખો કે જ્યારે સબ્જેક્ટ, જે કહેવામાં આવી રહ્યું હોય તેના આધારે જ્યારે ભાવના બતાવવામાં આવવી જોઈએ ત્યારે તેઓ ભાવનાનો અભાવ દર્શાવે છે, કોઈ શબ્દનું ખોટું ઉચ્ચારણ કરતા હોય તેવું લાગે અથવા તેઓ કોઈ પણ અન્ય વિચિત્ર વિસંગતતાઓનો ભાગ હોય. છેવટે, ફોટા (અથવા વીડિયોના કોઈ સ્ક્રીનશોટ) પર રિવર્સ ફોટો શોધને ચલાવવાથી તમને ફેરફાર કર્યા પહેલાં રહેલા મૂળ વીડિયો પ્રત્યે નિર્દેશિત કરવામાં આવી શકે છે.

જ્યારે આપણે ધીમા પડીને કન્ટેન્ટને ખૂબ જ ધ્યાનપૂર્વક જોઈએ અને સાંભળીએ છીએ, ત્યારે આપણને સામાન્ય રીતે એ સમજાઈ જઈ શકે છે કે કંઈક તો અજુગતું છે. ડીપફેક વીડિયો એ ભારતીય લોકો માટે ખૂબ જ ગંભીર બાબત છે. કારણ કે, હજુ તો ભારતના લોકો મોર્ફ વીડિયો કે ફોટોને ઓળખી શકતા નથી અને અંતરિયાળ વિસ્તારના લોકો તો જે દેખાઇ છે તેને સાચુ માની લે છે. પંદર વર્ષ પહેલા પાંચ ફેણવાળા નાગનો એક ફોટો વાયરલ થયો હતો તેને પણ અનેક લોકો હજી પણ સાચો જ ગણે છે. આ વાત બીલકુલ અસંગત છે કારણ કે નાગને એક જ ફેણ હોય છે. તેમ છતાં આ બાબત કોઇ માનવા તૈયાર નથી ત્યારે ડીપફેક વીડિયોની વાતતો અનેક લોકો સાચી જ માની લે છે. આનું ચલણ ભારતમાં ધીરે ધીરે વધી રહ્યું છે તેના કારણે અનેક સામાજિક સમસ્યા ઊભી થાય તેવી પૂરેપૂરી શક્યતા રહેલી હોવાથી તેના પર અંકુશ મૂકવો જ પડશે.

Most Popular

To Top