AI နဲ့ဖန်တီးထားတဲ့ K POP idol တွေရဲ့ deep fake ညစ်ညမ်းပုံရိပ်များ ဆိုရှယ်မီဒီယာမှာ ပျံ့နှံ့နေ

 1809

ရောင်နီ (NP News) - စက်တင်ဘာ ၁၃

K-pop အေဂျင်စီတွေဖြစ်တဲ့ JYP Entertainment၊ YG Entertainment နဲ့ Cube Entertainment တို့က ၎င်းတို့ရဲ့ K-pop အနုပညာရှင်ပုံတွေ အသုံးပြုဖန်တီးထားတဲ့ deep fake ပုံတွေ ပျံ့နှံနေတဲ့အကြောင်း လူသိထင်ခြားပြောပြ လာခဲ့ပါတယ်။

AI နဲ့ဖန်တီးထားတဲ့ ညစ်ညမ်းဗီဒီယိုတွေ မျှဝေတဲ့အွန်လိုင်းပလက်ဖောင်းတွေ ပေါ်ထွက်လာပြီးနောက် တောင်ကိုရီးယားမှာ k pop idol တွေဟာ deep fake ဓာတ်ပုံတွေရဲ့သားကောင်တွေ ဖြစ်လာကြပါတယ်။ YG Entertainment ကတော့ idol တွေရဲ့ Deep fake ပုံရိပ်ဖန်တီးမှုတွေကို တရားဥပဒေအရ အရေးယူသွားမယ်လို့ စက်တင်ဘာ ၂ ရက်က ကြေညာခဲ့ပါတယ်။
"ကျွန်ုပ်တို့အနေနဲ့ ဒီတရားမဝင်တဲ့လုပ်ရပ်တွေကို စောင့်ကြည့်နေမှာဖြစ်ပြီး တရားမဝင်ဗီဒီယိုတွေကိုလည်း ဖျက်ပစ်ဖို့ ကြိုးပမ်းနေပါတယ်၊ ဖြစ်နိုင်သမျှ ဥပဒေအတိုင်း အရေးယူဆောင်ရွက်နေပါတယ်။ အနုပညာရှင်တွေရဲ့ ဂုဏ်သိက္ခာကို အကြီးအကျယ်ထိခိုက်စေတဲ့တရားမဝင်လှုပ်ရှားမှုအားလုံးကို ပြင်းပြင်းထန်ထန် တင်းတင်းကြပ် ကြပ် တုံ့ပြန်သွားမှာပါ” လို့ YG Entertainment မှ လူသိရှင်ကြား ထုတ်ပြန်ခဲ့ပါတယ်။

(G)I-dle၊ NewJeans၊ Twice၊ Kwon Eun-bi နဲ့ Blackpink အဖွဲ့ဝင်တွေဟာ deepfake pornography ထုတ်လုပ် သူတွေရဲ့သားကောင်တွေအဖြစ် မြင်တွေ့လာရပြီး ၎င်းတို့ဟာလည်း မီဒီယာနဲ့ထိတွေ့မှုများတာကြောင့် ၎င်းတို့ရဲ့ ပုံတွေကို အလွယ်တကူ ရရှိနိုင်နေတာဟာ အားနည်းချက်ဖြစ်နေပါတယ်။ ခွင့်ပြုချက်မရှိဘဲ K-pop Idol တွေရဲ့ ပုံတွေကို ခြယ်လှယ်ဖြန့်ဝေဖို့ deep fake နည်းပညာကို အသုံးပြုတာဟာ ကိုယ်ရေးကိုယ်တာအချက်အလက်ကို ချိုးဖောက်မှုနဲ့ အသရေဖျက်မှုဖြစ်တယ်လို့ AI နဲ့ စတင်တဲ့ လိမ်လည်မှုကိစ္စတွေကို ကျွမ်းကျင်တဲ့ ရှေ့နေ မစ္စတာ ဂျောင်ဂျင်ကွမ်က ပြောကြားပါတယ်။

Deep fake ညစ်ညမ်းရုပ်ပုံတု ထုတ်လုပ်မှုအရေအတွက်ဟာ ၂၀၂၂ ခုနှစ်က ၃၇၂၅ ခု ရှိခဲ့ရာမှ ၂ဝ၂၃ ခုနှစ်မှာ ၂၁ဝ၂၅ အထိ တိုးလာကာ ၄.၆ ဆထိ တိုးလာတယ်လို့ အစီရင်ခံစာတွေအရ သိရပါတယ်။ Deep fake ညစ်ညမ်းရုပ်ပုံများ လုပ်ဆောင်ခြင်းအတွက် ပါဝင်ပတ်သက်သူ၊ ဖြန့်ဝေသူတွေဟာ ထောင်ဒဏ်ငါးနှစ်အထိ (သို့မဟုတ်) ဒဏ်ငွေ ဝမ်သန်း ၅၀၊ ထောင်ဒဏ် ၇ နှစ်ထိ ချမှတ်ခံရနိုင်တယ်လို့ သိရပါတယ်။

Zawgyi Version;
AI နဲ႔ဖန္တီးထားတဲ့ K POP idol ေတြရဲ႕ deep fake ညစ္ညမ္းပုံရိပ္မ်ား ဆိုရွယ္မီဒီယာမွာ ပ်ံ႕ႏွံ႔ေန
ေရာင္နီ (NP News) - စက္တင္ဘာ ၁၃

K-pop ေအဂ်င္စီေတြျဖစ္တဲ့ JYP Entertainment၊ YG Entertainment နဲ႔ Cube Entertainment တို႔က ၎တို႔ရဲ႕ K-pop အႏုပညာရွင္ပုံေတြ အသုံးျပဳဖန္တီးထားတဲ့ deep fake ပုံေတြ ပ်ံ႕ႏွံေနတဲ့အေၾကာင္း လူသိထင္ျခားေျပာျပ လာခဲ့ပါတယ္။

AI နဲ႔ဖန္တီးထားတဲ့ ညစ္ညမ္းဗီဒီယိုေတြ မွ်ေဝတဲ့အြန္လိုင္းပလက္ေဖာင္းေတြ ေပၚထြက္လာၿပီးေနာက္ ေတာင္ကိုရီးယားမွာ k pop idol ေတြဟာ deep fake ဓာတ္ပုံေတြရဲ႕သားေကာင္ေတြ ျဖစ္လာၾကပါတယ္။ YG Entertainment ကေတာ့ idol ေတြရဲ႕ Deep fake ပုံရိပ္ဖန္တီးမႈေတြကို တရားဥပေဒအရ အေရးယူသြားမယ္လို႔ စက္တင္ဘာ ၂ ရက္က ေၾကညာခဲ့ပါတယ္။
"ကြၽႏ္ုပ္တို႔အေနနဲ႔ ဒီတရားမဝင္တဲ့လုပ္ရပ္ေတြကို ေစာင့္ၾကည့္ေနမွာျဖစ္ၿပီး တရားမဝင္ဗီဒီယိုေတြကိုလည္း ဖ်က္ပစ္ဖို႔ ႀကိဳးပမ္းေနပါတယ္၊ ျဖစ္ႏိုင္သမွ် ဥပေဒအတိုင္း အေရးယူေဆာင္႐ြက္ေနပါတယ္။ အႏုပညာရွင္ေတြရဲ႕ ဂုဏ္သိကၡာကို အႀကီးအက်ယ္ထိခိုက္ေစတဲ့တရားမဝင္လႈပ္ရွားမႈအားလုံးကို ျပင္းျပင္းထန္ထန္ တင္းတင္းၾကပ္ ၾကပ္ တုံ႔ျပန္သြားမွာပါ” လို႔ YG Entertainment မွ လူသိရွင္ၾကား ထုတ္ျပန္ခဲ့ပါတယ္။

(G)I-dle၊ NewJeans၊ Twice၊ Kwon Eun-bi နဲ႔ Blackpink အဖြဲ႕ဝင္ေတြဟာ deepfake pornography ထုတ္လုပ္ သူေတြရဲ႕သားေကာင္ေတြအျဖစ္ ျမင္ေတြ႕လာရၿပီး ၎တို႔ဟာလည္း မီဒီယာနဲ႔ထိေတြ႕မႈမ်ားတာေၾကာင့္ ၎တို႔ရဲ႕ ပုံေတြကို အလြယ္တကူ ရရွိႏိုင္ေနတာဟာ အားနည္းခ်က္ျဖစ္ေနပါတယ္။ ခြင့္ျပဳခ်က္မရွိဘဲ K-pop Idol ေတြရဲ႕ ပုံေတြကို ျခယ္လွယ္ျဖန႔္ေဝဖို႔ deep fake နည္းပညာကို အသုံးျပဳတာဟာ ကိုယ္ေရးကိုယ္တာအခ်က္အလက္ကို ခ်ိဳးေဖာက္မႈနဲ႔ အသေရဖ်က္မႈျဖစ္တယ္လို႔ AI နဲ႔ စတင္တဲ့ လိမ္လည္မႈကိစၥေတြကို ကြၽမ္းက်င္တဲ့ ေရွ႕ေန မစၥတာ ေဂ်ာင္ဂ်င္ကြမ္က ေျပာၾကားပါတယ္။

Deep fake ညစ္ညမ္း႐ုပ္ပုံတု ထုတ္လုပ္မႈအေရအတြက္ဟာ ၂၀၂၂ ခုႏွစ္က ၃၇၂၅ ခု ရွိခဲ့ရာမွ ၂ဝ၂၃ ခုႏွစ္မွာ ၂၁ဝ၂၅ အထိ တိုးလာကာ ၄.၆ ဆထိ တိုးလာတယ္လို႔ အစီရင္ခံစာေတြအရ သိရပါတယ္။ Deep fake ညစ္ညမ္း႐ုပ္ပုံမ်ား လုပ္ေဆာင္ျခင္းအတြက္ ပါဝင္ပတ္သက္သူ၊ ျဖန႔္ေဝသူေတြဟာ ေထာင္ဒဏ္ငါးႏွစ္အထိ (သို႔မဟုတ္) ဒဏ္ေငြ ဝမ္သန္း ၅၀၊ ေထာင္ဒဏ္ ၇ ႏွစ္ထိ ခ်မွတ္ခံရႏိုင္တယ္လို႔ သိရပါတယ္။

Related news

© 2021. All rights reserved.