
യുവ സിനിമാ താരങ്ങളുടെയും മോഡലുകളുടെയും ചുംബനരംഗങ്ങള് സമൂഹമാധ്യമങ്ങളില് വൈറല്; ‘ഡീപ്ഫേക്കി’ന്റെ അപകടസാധ്യത
സമൂഹമാധ്യമങ്ങളിലെ ചിത്രങ്ങളും വീഡിയോകളും ഉപയോഗിച്ച് ആര്ക്കും ആരുടെയും ചിത്രങ്ങളും വീഡിയോകളും നിര്മിക്കാന് കഴിയുന്ന കാലത്താണ് നമ്മള് ജീവിക്കുന്നത്. ഇത് സത്യമല്ലെന്നും എഐ (ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ്) ഉപയോഗിച്ച് സൗജന്യമായി സൃഷ്ടിക്കുന്നതാണെന്നും എല്ലാവര്ക്കും അറിയാം. എന്നാലും, ഇവ ഷെയര് ചെയ്യപ്പെടുന്നു. ശാരീരിമായി അടുത്തിടപഴകുന്ന ചിത്രങ്ങളോ വിഡിയോകളോ സൃഷ്ടിക്കാൻ എഐ ഉപയോഗിക്കുന്നത് പലപ്പോഴും അതിലുള്ളവർക്ക് വൈകാരിക പ്രശ്നങ്ങളും അപമാനവുണ്ടാക്കാന് കാരണമാകാറുണ്ട്. ഇത് സൃഷ്ടിക്കുന്നവരോ ഷെയര് ചെയ്യുന്നവരോ ഇതേ കുറിച്ച് ചിന്തിക്കുന്നില്ല. മാത്രമല്ല, കോപിറൈറ്റ് നിയമങ്ങളുടെ ലംഘനവുമായതിനാൽ കേസുകളും നേരിടേണ്ടിവരാം. കൂടുതലായും നടീ നടന്മാരുടെയും മോഡലുകളുടെയും ചിത്രങ്ങള് ഉപയോഗിച്ചാണ് ഡീപ്ഫേക്ക് വീഡിയോകളും ചിത്രങ്ങളും സൃഷ്ടിക്കുന്നത്. ഇന്ത്യയിൽ, സ്വകാര്യതയുടെ ലംഘനത്തിലേക്ക് നയിക്കുന്ന കുറ്റകൃത്യങ്ങൾ ഉൾപ്പെടെയുള്ള ഇന്റര്നെറ്റ് അധിഷ്ഠിത കുറ്റകൃത്യങ്ങളെ ചെറുക്കുന്നതിന്, ഇൻഫർമേഷൻ ടെക്നോളജി ആക്ട്, 2000 (ഐടി ആക്ട്) വ്യാപകമായി ഉപയോഗിച്ചുവരുന്നു. ഇന്ത്യയുടെ ഡിജിറ്റൽ പേഴ്സണൽ ഡാറ്റ പ്രൊട്ടക്ഷൻ ആക്ട് 2023 ഡിജിറ്റൽ രൂപത്തിലുള്ള ഡാറ്റയെ മാത്രം പരിഗണിക്കുന്നുള്ളൂ. ഡീപ്ഫെയ്ക് സാങ്കേതികവിദ്യയുമായും എഐയുമായും ബന്ധപ്പെട്ട കുറ്റകൃത്യങ്ങൾ മാത്രം ഇത് ചർച്ച ചെയ്യുന്നില്ല.
Comments (0)