
Дижитал технологийн салбарт шинэ эрин үе эхэлж байна. Саяхныг хүртэл хиймэл оюун ухаан зөвхөн текст бичиж, зураг үүсгэх төдийхнөөр хязгаарлагддаг байсан бол одоо видео контентын салбарт бодит хувьсгал авчирч эхэллээ.
Хэдхэн өгүүлбэр бичихэд л бодит мэт хөдөлгөөнт дүрс, дуу авиа бүхий видео бүтээх боломж бүрдсэн нь контент бүтээх үйл явцыг мэргэжлийн студиэс энгийн хэрэглэгчид рүү шилжүүлэв.
Одоо үед “OpenAI”-ийн “Sora”, “Runway Gen3”, “Luma Dream Machine” болон “Pika” зэрэг платформууд ердөө хэдхэн өгүүлбэр бичихэд л бодит байдлаас үл ялгагдах өндөр чанартай видеог бүтээж байна. Мөн “HeyGen”, “Synthesia” зэрэг аппликэйшнууд хүний дүр төрх, дуу хоолойг яг таг дуурайлган ярьдаг “аватар” үүсгэж байгаа нь контент бүтээх ойлголтыг үндсээр нь өөрчлөв. Хамгийн гол нь, энэхүү хүчирхэг технологийг хэн ч гар утсаараа, маш богино хугацаанд ашиглах боломжтой болсон нь цахим орчинд тархаж буй аливаа мэдээллийн үнэн, худлыг дэнслэхэд төвөгтэй нөхцөл үүсгэж, бидний өмнө томоохон сорилтыг бий болгож байна.
Facebook, Instagram, TikTok, YouTube зэрэг платформууд хиймэл оюунаар бүтээсэн контентоор дүүрч эхэллээ. Эдгээр платформын алгоритм нь хэрэглэгчийн анхаарал, сэтгэл хөдлөлд хүчтэй нөлөөлөх контентыг илүү хурдтай, өргөн хүрээнд түгээх зарчмаар ажилладаг. Судалгаагаар хүний нүүр царай, дуу хоолой, бодит дүрслэл агуулсан богино форматын видеонууд бусад төрлийн контентоос илүү хандалт авдаг нь тогтоогдсон тул бодит мэт харагдах “deepfake” видеонууд маш богино хугацаанд сая сая хүнд хүрэх боломжтой болжээ.
Анх зугаа цэнгэлийн зорилгоор ашиглагдаж байсан “deepfake” буюу хүний царай, дуу хоолойг дуурайлгах технологи сүүлийн жилүүдэд кибер гэмт хэргийн гол хэрэгсэл болон хувирчээ.
Ялангуяа санхүүгийн салбарт хиймэл оюунаар бүтээсэн дүрс, дуу хоолойг ашигласан залилангийн тоо сүүлийн хоёр жилийн хугацаанд долоо дахин өссөн талаар олон улсын кибер аюулгүй байдлын тайлангуудад дурдсан байна.
Залилагчид Илон Маск, Марк Зукерберг зэрэг олон нийтэд танигдсан эрхмүүдийн хуурамч аватарт суурилсан видеог ашиглан “ашигтай хөрөнгө оруулалт”, “криптовалютын урамшуулал” санал болгож, иргэдийг төөрөгдүүлэн нэг удаагийн үйлдлээр их хэмжээний хохирол учруулж байгаа аж. Мөн байгууллагын удирдлагын дуу хоолойг дуурайлган (voice cloning) санхүүгийн ажилтнуудад хуурамч шилжүүлэг хийх даалгавар өгөх эсвэл видео хурлын үеэр “хуурамч захирал” болж оролцон компанийн нууц мэдээллийг олж авах тохиолдлууд хүртэл бүртгэгджээ. Үүнээс гадна сошиал орчинд хиймэл дүр үүсгэж, бусдад өөрийгөө бодит гэж итгүүлэх замаар хувь хүний сэтгэлзүй болон санхүүд халдах “романс” (romance scam) төрлийн залилан ч газар авав. Залилагчид AI ашиглан төгс гадаад төрх, дуу хоолойтой зохиомол дүр бүтээж, хохирогчтой удаан хугацаанд итгэлцэл тогтоосны эцэст мөнгө салгах эсвээс хувийн мэдээллийг нь барьцаалах тохиолдол 2026 онд дэлхий даяарх кибер гэмт хэргийн томоохон хэсгийг эзлэх болсныг анхааруулаад буй.
Иймд улс орнууд болон технологийн томоохон компаниуд энэ төрлийн “deepfake” болон хиймэл оюун суурилсан залилангийн эрсдэлийг бууруулах чиглэлд олон арга хэмжээ авч эхэлжээ.
Хуулийн зохицуулалт: Зарим оронд “deepfake” болон хиймэл аватар ашиглан бусдыг төөрөгдүүлэх, нэр хүндэд халдах, санхүүгийн залилан үйлдэхийг гэмт хэрэг гэж тодорхойлж, уг үйлдлийг эрүүгийн хуулиар шийтгэх зохицуулалтыг хэрэгжүүлж байна.
Технологийн шийдлүүд: Google, Microsoft, OpenAI зэрэг компаниуд “deepfake” болон “synthetic media” илрүүлэх AI системүүдийг хөгжүүлж, цахим платформууд дээр контентыг тэмдэглэх, шалгах механизмыг нэвтрүүлэв.
Мэдээллийн боловсрол, сургалт: Хэрэглэгчдэд хиймэл дүр, “deepfake” контентыг ялгах ур чадвар, мэдээллийг шүүлтүүртэй хүлээн авах дадлыг олгох сургалтуудыг өргөнөөр зохион байгууллаа.
Энэ бүх арга хэмжээ нь цахим орчинд тархаж буй хуурамч мэдээллийг таних, “deepfake” контентыг зохицуулахад чиглэж байгаа аж.
Дэлхий нийтээрээ “Deepfake” болон хиймэл оюуны эрсдэлд анхаарлаа хандуулж буй энэ үед Монгол Улс ч мэдээллийн энэхүү шуурганы гадна үлдсэнгүй. Технологийн хөгжлийг дагаад мэдээлэл асар хурдтай тархах болсон ч, түүнийг дагасан хуурамч мэдээллийн “вирус” нийгмийн сэтгэлзүйд ноцтой аюул учруулж буй.
IRIM судалгааны хүрээлэн болон Филиппиний “INCITEGov” төвийн хамтарсан судалгаагаар Монголд тархаж буй хуурамч мэдээллийн 55.6 хувь нь “худал өгүүлэмж” буюу бодит байдлыг гуйвуулан тайлбарлах хэлбэртэй байгааг тогтоожээ.
“Худал өгүүлэмж” (False Narrative) гэдэг нь болсон үйл явдлыг бүхэлд нь үгүйсгэх биш, харин бодит баримтыг өөрт ашигтайгаар мушгин гуйвуулж, олон нийтийн тархийг угаах тактик юм. Судалгааны дүнгээс харахад, ийм төрлийн өгүүлэмжийг улс төрийн орчинд, ялангуяа сонгуулийн үеэр олон нийтийн санаа бодолд нөлөөлөх зорилгоор ашиглах, зохион байгуулалттайгаар түгээх тохиолдол нэмэгддэг байна. Тэгвэл үүн дээр нэмээд хиймэл оюунд суурилсан “deepfake” видео, дуу хоолой, хиймэл аватарууд нь худал өгүүлэмжийг улам бодит мэт харагдуулах шинэ хэрэгсэл болж буй. Үүний нөлөөгөөр улс төр, нийгмийн орчинд иргэдийн итгэлцэл алдагдах, бодит мэдээлэлд эргэлзэх хандлага газар авах, улмаар төр, хэвлэл мэдээлэл, олон нийтийн хооронд “итгэлцлийн хямрал” үүсэх зэрэг олон сөрөг үр дагавартай.
Өнөөдөр нүдээр харж, чихээр сонсон бүхэн эргэлзээ дагуулж байгаа энэ үед бид технологийн хурдтай хөл нийлүүлэх тумсаа хэрсүү байж, аливаа мэдээллийг шүүлтүүртэйгээр хүлээн авах чадварт суралцах нь тархи угаалт, дижитал залиланд өртөхгүй байх хамгийн найдвартай дархлаа болоод байна.