Posted By anza Posted On

യുവ സിനിമാ താരങ്ങളുടെയും മോഡലുകളുടെയും ചുംബനരംഗങ്ങള്‍ സമൂഹമാധ്യമങ്ങളില്‍ വൈറല്‍; ‘ഡീപ്ഫേക്കി’ന്‍റെ അപകടസാധ്യത

മൂഹമാധ്യമങ്ങളിലെ ചിത്രങ്ങളും വീഡിയോകളും ഉപയോഗിച്ച് ആര്‍ക്കും ആരുടെയും ചിത്രങ്ങളും വീഡിയോകളും നിര്‍മിക്കാന്‍ കഴിയുന്ന കാലത്താണ് നമ്മള്‍ ജീവിക്കുന്നത്. ഇത് സത്യമല്ലെന്നും എഐ (ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്‍റലിജന്‍സ്) ഉപയോഗിച്ച് സൗജന്യമായി സൃഷ്ടിക്കുന്നതാണെന്നും എല്ലാവര്‍ക്കും അറിയാം. എന്നാലും, ഇവ ഷെയര്‍ ചെയ്യപ്പെടുന്നു. ശാരീരിമായി അടുത്തിടപഴകുന്ന ചിത്രങ്ങളോ വിഡിയോകളോ സൃഷ്ടിക്കാൻ എഐ ഉപയോഗിക്കുന്നത് പലപ്പോഴും അതിലുള്ളവർക്ക് വൈകാരിക പ്രശ്നങ്ങളും അപമാനവുണ്ടാക്കാന്‍ കാരണമാകാറുണ്ട്. ഇത് സൃഷ്ടിക്കുന്നവരോ ഷെയര്‍ ചെയ്യുന്നവരോ ഇതേ കുറിച്ച് ചിന്തിക്കുന്നില്ല. മാത്രമല്ല, കോപിറൈറ്റ് നിയമങ്ങളുടെ ലംഘനവുമായതിനാൽ കേസുകളും നേരിടേണ്ടിവരാം. കൂടുതലായും നടീ നടന്മാരുടെയും മോഡലുകളുടെയും ചിത്രങ്ങള്‍ ഉപയോഗിച്ചാണ് ഡീപ്ഫേക്ക് വീഡിയോകളും ചിത്രങ്ങളും സൃഷ്ടിക്കുന്നത്. ഇന്ത്യയിൽ, സ്വകാര്യതയുടെ ലംഘനത്തിലേക്ക് നയിക്കുന്ന കുറ്റകൃത്യങ്ങൾ ഉൾപ്പെടെയുള്ള ഇന്‍റര്‍നെറ്റ് അധിഷ്ഠിത കുറ്റകൃത്യങ്ങളെ ചെറുക്കുന്നതിന്, ഇൻഫർമേഷൻ ടെക്നോളജി ആക്ട്, 2000 (ഐടി ആക്ട്) വ്യാപകമായി ഉപയോഗിച്ചുവരുന്നു. ഇന്ത്യയുടെ ഡിജിറ്റൽ പേഴ്‌സണൽ ഡാറ്റ പ്രൊട്ടക്ഷൻ ആക്ട് 2023 ഡിജിറ്റൽ രൂപത്തിലുള്ള ഡാറ്റയെ മാത്രം പരിഗണിക്കുന്നുള്ളൂ. ഡീപ്ഫെയ്ക് സാങ്കേതികവിദ്യയുമായും എഐയുമായും ബന്ധപ്പെട്ട കുറ്റകൃത്യങ്ങൾ മാത്രം ഇത് ചർച്ച ചെയ്യുന്നില്ല.

Comments (0)

Leave a Reply

Your email address will not be published. Required fields are marked *