ಜಾಗತಿಕ ಮಟ್ಟದಲ್ಲಿ. ಸಾಮಾಜಿಕ ಮಾಧ್ಯಮದಲ್ಲಿ ವೈರಲ್ ಆಗಿರುವ ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಒಳಗೊಂಡ “ಡೀಪ್ ಫೇಕ್” ವೀಡಿಯೊದಲ್ಲಿ, ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಸ್ವಿಮ್ ಸೂಟ್ ಮತ್ತು ಸೈಕ್ಲಿಂಗ್ ಶಾರ್ಟ್ಸ್ ಧರಿಸಿ ಲಿಫ್ಟ್ ಪ್ರವೇಶಿಸುತ್ತಿರುವುದನ್ನು ತೋರಿಸಲಾಗಿದೆ.
ಅಭಿಮಾನಿಗಳನ್ನು ಮಾತ್ರವಲ್ಲದೆ, ಇಡೀ ಸಿನಿಜತ್ತನ್ನೇ ಬೆಚ್ಚಿ ಬೀಳಿಸಿದೆ. ಎಕೆಂದರೆ ಇದನ್ನು ನಕಲಿ ಎಂದು ಹೇಳಲು ಅಸಾಧ್ಯವೆಂಬ ರೀತಿಯಲ್ಲಿ ಎಐ ಯ ಸಹಾಯದಿಂದ ಮಾರ್ಪಡಿಸಲಾಗಿದೆ.
ಬಿಡುಗಡೆಗೆ ಸಿದ್ಧವಾಗಿರುವ ‘ಟೈಗರ್ 3’ ಚಿತ್ರದ ದೃಶ್ಯವೊಂದನ್ನು ಮಾರ್ಫಿಂಗ್ ಮಾರ್ಪಡಲಾಗಿದೆ. ಇದು ಕತ್ರಿನಾ ಟವೆಲ್ ಧರಿಸಿ ಆಕ್ಷನ್ ಸ್ಟಂಟ್ ಗಳನ್ನು ಪ್ರದರ್ಶಿಸುವ ದೃಶ್ಯವಾಗಿದೆ. ನಕಲಿ ಪೋಟೋ ಅದೇ ಫೋಸ್ನ್ನು ತೋರಿಸುತ್ತದೆ ಆದರೆ ವಿಭಿನ್ನ ಮತ್ತು ಬದಲಾದ ಉಡುಗೆಯೊಂದಿಗೆ. ಈ ಪೋಟೋವು ಕೊಂಚ ಅಶ್ಲಿವೆಂಬತೆ ಮಾರ್ಪಡಿಸಲಾಗಿದೆ
ಬಾಲಿವುಡ್ ಸೂಪರ್ಸ್ಟಾರ್ ಅಮಿತಾಭ್ ಬಚ್ಚನ್ ಭಾನುವಾರ ಇದುವರೆಗೆ ವ್ಯಾಪಕವಾಗಿ “ಕಿರಿದಾದ ತೆರೆದಿರುವ” ಬಾಗಿಲನ್ನು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಮತ್ತು ಡೀಪ್ಫೇಕ್ ವೀಡಿಯೊಗಳ ಜಗತ್ತಿಗೆ ತೆರೆದಿದೆ, ಇದು ವ್ಯಕ್ತಿಯ ಜೀವನದಲ್ಲಿ ಮತ್ತು ಜಾಗತಿಕ ಮಟ್ಟದಲ್ಲಿ ವಿನಾಶವನ್ನುಂಟು ಮಾಡುವ ಸಾಮರ್ಥ್ಯವನ್ನು ಹೊಂದಿದೆ ಎಂದು ಎಚ್ಚರಿಸಿದ್ದಾರೆ.
ನಕಲು ವಿಡಿಯೊ ‘ನೈಜತೆಗೆ’ ಹತ್ತಿರ ಆದ್ದಾಗ
ವೀಡಿಯೊದಲ್ಲಿ ತೋರಿಸಲಾದ ಮಹಿಳೆ ರಶ್ಮಿಕಾ ಅಲ್ಲ, ಆದರೆ ಬೇರೆಯೊಬ್ಬ ಮಹಿಳೆಯಾಗಿದ್ದು, ಅದನ್ನು ನಟಿ ಎಂದು ತೋರಿಸಲು ವೀಡಿಯೊವನ್ನು ಬಳಸಲಾಗಿದೆ. ಸ್ವಲ್ಪ ಪರಿಶೀಲನೆಯು ನೆಟ್ಟಿಗರನ್ನು ಮತ್ತು ಸಹಜವಾಗಿ ರಶ್ಮಿಕಾಳನ್ನು ದಿಗ್ಭ್ರಮೆಗೊಳಿಸಿತು. ಡೀಪ್ ಫೇಕ್ ಎಐ ವೀಡಿಯೊಗಳಲ್ಲಿ ಕಾಣಿಸಿಕೊಳ್ಳುವ ಹಠಾತ್ ಕಣ್ಣಿನ ಚಲನೆಯನ್ನು ಗುರುತಿಸಲಾಗಿದೆ. ಬಳಸಲಾದ ಮೂಲ ವೀಡಿಯೊದಲ್ಲಿ ಬ್ರಿಟಿಷ್ ಭಾರತೀಯ ಹುಡುಗಿ ಜಾರಾ ಪಟೇಲ್ ಮತ್ತು ರಶ್ಮಿಕಾ ಅವರ ಮುಖವನ್ನು ಪಟೇಲ್ ಅವರ ಮುಖದ ಮೇಲೆ ಹೇರಲಾಗಿತ್ತು.
ನಕಲಿ ಎಐ ವೀಡಿಯೊಗಳನ್ನು ಗುರುತಿಸಬಹುದು
ವಿಚಿತ್ರ ಅಥವಾ ಅಸಾಮಾನ್ಯ ಕಣ್ಣಿನ ಚಲನೆಗಳು: ನಕಲಿ ವೀಡಿಯೊಗಳನ್ನು ಗುರುತಿಸುವ ಪ್ರಮುಖ ಚಿಹ್ನೆಗಳಲ್ಲಿ ಒಂದು ಅಸಾಮಾನ್ಯ, ಅಸ್ವಾಭಾವಿಕ ಕಣ್ಣಿನ ಚಲನೆ. ಅದು ಮುಖದೊಂದಿಗೆ ಸಿಂಕ್ ಆಗದೆ, ವಿಚಿತ್ರ ಕಣ್ಣಿನ ಚಲನೆಗಳನ್ನು ಹೊಂದಿರುತ್ತದೆ. ಸುತ್ತಲೂ ನೋಡುವ ವಿಧಾನದ ಮಾದರಿ ನಿಜವಾದ ವ್ಯಕ್ತಿಯಂತೆ ಚೌಕಟ್ಟಿಗೆ ಹೊಂದಿಕೆಯಾಗುವುದಿಲ್ಲ. ವ್ಯಕ್ತಿಯ ಕ್ರಿಯೆಗಳು, ಮಾತು ಮತ್ತು ಸಾಮಾನ್ಯ ಚಲನೆಗಳ ನಡುವೆ ಯಾವುದೇ ಸಮನ್ವಯವಿರುವುದಿಲ್ಲ.
ಕೃತಕ ಮುಖದ ಚಲನೆಗಳು, ಲಿಪ್ ಸಿಂಕ್: ವೀಡಿಯೊದಲ್ಲಿರುವ ವ್ಯಕ್ತಿ(ಗಳು) ಸೆಟ್ಟಿಂಗ್ ಮತ್ತು ಅವರ ಹಾವಭಾವ ಅಸಮಂಜಸವಾಗಿ ಕಾಣುತ್ತದೆ. ತುಟಿಯ ಚಲನೆಗಳು ಅನುಮಾನವನ್ನುಂಟು ಮಾಡುತ್ತವೆ ಏಕೆಂದರೆ ಅಲ್ಲಿ ಮಾತನಾಡುವ ವಿಷಯಗಳೊಂದಿಗೆ ಸಿಂಕ್ರೊನೈಸ್ ಆಗುವುದಿಲ್ಲ. ಇದು ಬೇರೊಬ್ಬರು ಹಾಡಿದ ಹಾಡಿಗೆ ನಟರು ಪ್ರದರ್ಶಿಸುವ ಲಿಪ್-ಸಿಂಕ್ ನಂತೆ ಇರುತ್ತದೆ.
ಬೆಳಕು, ಹಿನ್ನೆಲೆ ಮತ್ತು ಬಣ್ಣದಲ್ಲಿ ಗೋಚರಿಸುವ ವ್ಯತ್ಯಾಸಗಳು: ಹಿನ್ನೆಲೆ, ಮುಂಭಾಗ, ಮಧ್ಯಭಾಗ, ಬೆಳಕು, ಕಾಂಟ್ರಾಸ್ಟ್ ಮತ್ತು ಬಣ್ಣಗಳಲ್ಲಿ ಸ್ಪಷ್ಟ ಹೊಂದಾಣಿಕೆಗಳು ಇಲ್ಲದೆ ವ್ಯತ್ಯಾಸಗಳು ಸ್ಪಷ್ಟವಾಗಿ ನಕಲಿ ವೀಡಿಯೊ ಎಂದು ಘೋಷಿಸುತ್ತದೆ.
ಏಕೆಂದರೆ ನಕಲು ಮೂಲವನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ಹೊಂದಿಸಲು ಸಾಧ್ಯವಿಲ್ಲ. ಎರಡನ್ನೂ ವಿಲೀನಗೊಳಿಸಲು ಪ್ರಯತ್ನಿಸುವಾಗ ಆಳವಾದ ನಕಲಿ ಸೃಷ್ಟಿಕರ್ತರು ಸಮಸ್ಯೆಗಳನ್ನು ಎದುರಿಸುತ್ತಾರೆ.
ದೇಹದ ಚಲನೆಗಳು ಮತ್ತು ಆಕಾರಗಳು ವಿಚಿತ್ರ: ಸ್ವಲ್ಪ ಕೆಳಗೆ ಚಲಿಸುವಾಗ, ಸನ್ನೆಗಳು, ನಡಿಗೆ, ಮುಖ, ಕೂದಲು ಮತ್ತು ಗಲ್ಲದ ಕೆಳಗಿರುವ ಸಮ್ಮಿತಿಯನ್ನು ಗಮನಿಸಿ ಅಥವಾ ತೋಳುಗಳು, ಕಾಲುಗಳು ಅಥವಾ ಕೂದಲು ಕ್ಲಿಕ್ ಮಾಡದಿದ್ದರೆ, ಸಾಮಾನ್ಯ ವ್ಯಕ್ತಿಯ ತೋಳುಗಳು ವಿಚಿತ್ರವಾಗಿ, ಸಮನ್ವಯಗೊಳ್ಳದೆ, ದೇಹ ಅಥವಾ ತಲೆಯ ಗಾತ್ರದೊಂದಿಗೆ ಹೋಗದಿದ್ದರೆ, ಅದನ್ನು ಆಳವಾದ ನಕಲಿ ಎಂದು ಪರಿಗಣಿಸಬಹುದು.
ಭಾರತದಲ್ಲಿ ಡೀಪ್ ಫೇಕ್ ಗಳ ವಿರುದ್ಧ ಇರುವ ಕಾನೂನು
ಸಮೂಹ ಮಾಧ್ಯಮಗಳಲ್ಲಿ ವ್ಯಕ್ತಿಯ ಚಿತ್ರಗಳನ್ನು ಸೆರೆಹಿಡಿಯುವುದು, ಪ್ರಕಟಿಸುವುದು ಅಥವಾ ಪ್ರಸಾರ ಮಾಡುವುದನ್ನು ಒಳಗೊಂಡಿರುವ ಡೀಪ್ ಫೇಕ್ ಅಪರಾಧಗಳ ಸಂದರ್ಭದಲ್ಲಿ, ಐಟಿ ಕಾಯ್ದೆ 2000 ರ ಸೆಕ್ಷನ್ 66 ಇ ಅನ್ವಯವಾಗುತ್ತದೆ. ಈ ಅಪರಾಧಕ್ಕೆ ಮೂರು ವರ್ಷಗಳವರೆಗೆ ಜೈಲು ಶಿಕ್ಷೆ ಅಥವಾ 2 ಲಕ್ಷ ರೂ.ಗಳವರೆಗೆ ದಂಡ ವಿಧಿಸಬಹುದು ಎಂದು ವರದಿಯಾಗಿದೆ.
ಭಾರತದ ಎಲೆಕ್ಟ್ರಾನಿಕ್ಸ್ ಮತ್ತು ಮಾಹಿತಿ ತಂತ್ರಜ್ಞಾನ ರಾಜ್ಯ ಸಚಿವ ರಾಜೀವ್ ಚಂದ್ರಶೇಖರ್, “ಏಪ್ರಿಲ್, 2023 ರಲ್ಲಿ ಅಧಿಸೂಚನೆ ಹೊರಡಿಸಲಾದ ಐಟಿ ನಿಯಮಗಳ ಅಡಿಯಲ್ಲಿ ಸಮಾಜಿಕ ಮಾದ್ಯಮ ವೇದಿಕೆಗಳಿಗೆ ಕಾನೂನು ಬಾಧ್ಯತೆಯಾಗಿದೆ. ಯಾವುದೇ ಬಳಕೆದಾರರು ಯಾವುದೇ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಪೋಸ್ಟ್ ಮಾಡುವಂತಿಲ್ಲ. ಯಾವುದೇ ಬಳಕೆದಾರರು ಅಥವಾ ಸರ್ಕಾರವು ಗಮನಕ್ಕೆ ಬಂದಾಗ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು 36 ಗಂಟೆಗಳಲ್ಲಿ ತೆಗೆದುಹಾಕ ಬೇಕು. ಸಮಾಜಿಕ ಮಾದ್ಯಮ ವೇದಿಕೆಗಳು ಇದನ್ನು ಅನುಸರಿಸದಿದ್ದರೆ, ನಿಯಮ 7 ಅನ್ವಯಿಸುತ್ತದೆ ಮತ್ತು ಐಪಿಸಿಯ ನಿಬಂಧನೆಗಳ ಅಡಿಯಲ್ಲಿ ಪೀಡಿತ ವ್ಯಕ್ತಿಯು ಸಾಮಾಜಿಕ ಮಾದ್ಯಮದಂತಹ ವೇದಿಕೆಗಳನ್ನು ನ್ಯಾಯಾಲಯಕ್ಕೆ ಎಳೆಯಬಹುದು.
ತಂತ್ರಜ್ಞಾನವನ್ನು ಮನುಷ್ಯನ ಜೀವನವನ್ನು ಸುಭವಾಗಿಸಲು ಅಭಿವೃದ್ಧಿಗೊಳಿಸಲಾಗಿದೆ. ಆದರೆ ಪ್ರತಿ ಬಾರಿಯಂತೆ ಈ ಭಾರಿಯು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯನ್ನು ತಮ್ಮ ಸ್ವಾರ್ಥಕ್ಕೆ ಬಳಸಲಾಗುತ್ತಿದೆ. ಅಸಲಿ ನಕಲಿಯ ಪ್ರಕರಣದಲ್ಲಿ ಪೀಡಿತರಾಗಿರುವವರು ಮಾತ್ರ ಒಂದಿಷ್ಟು ಮಾನಸಿಕ ಪೀಕಲಾಟವನ್ನು ಅನುಭವಿಸಲೇ ಬೇಕಾಗಿದೆ. ತಂತ್ರಜ್ಞಾನವು ಅತೀಬುದ್ಧಿವಂತರ ಕೊಳಕು ಯೋಚನೆಗೆ ಅಸ್ತçವಾಗಿದೆ. ಕೆಲವೊಮ್ಮೆ ಈ ತರದ ವಿಡಿಯೋ ಗಳು ಹರಿದಾಡುವಾಗ ಕೆಲವರಲ್ಲಿ ಇದು ನಿಜನಾ ಸುಳ್ಳಾ ಎಂದು ತಿಳಿದುಕೊಳ್ಳುವಷ್ಟು ಸಾಮಾನ್ಯ ಸೌಜನ್ಯನೂ ಇರುವುದಿಲ್ಲ. ಮನಬಂದಂತೆ ಬೈಯಲು ಶುರು ಮಾಡುತ್ತಾರೆ.
ಕಾನೂನು ಕ್ರಮವು ಕಠಿಣವಾಗಿಸಬೇಕಾಗಿದೆ. ಇಲ್ಲವದಾಲ್ಲಿ ಇದರ ಮುಂದಿನ ಅಧ್ಯಯವು ಇನ್ನಷ್ಟು ವಿಕೃತವಾಗಿರಬಹುದು. ಇದಕ್ಕೆ ಜನ ಸಾಮನ್ಯರು ಬಲಿಯಾಗಬುದು.