Uz pomoć umjetne inteligencije uz samo nekoliko klikova mišem moguće je kreirati lažne sadržaje – od tekstova do vizualnih i audiovizualnih sadržaja. Savjete kako o tome razgovarati s djecom prenosimo vam iz priručnika o dezinformacijama za roditelje u izdanju Društva za komunikacijsku i medijsku kulturu

Izvor: Lana Ciboci Perša, Igor Kanižaj, Danijel Labaš, Mediji i dezinformacije – priručnik za roditelje

Generacija Alfa prva je generacija djece koja odmalena odrasta uz umjetnu inteligenciju i koja će u potpunosti obilježiti njihove živote. Riječ je o tehnologiji uz pomoć koje je uz samo nekoliko klikova mišem moguće kreirati sasvim nove i u potpunosti lažne sadržaje – od tekstova do onih puno opasnijih – vizualnih i audiovizualnih sadržaja koji djeluju toliko realno da je gotovo pa nemoguće prepoznati da je riječ o izmišljenim i manipulirajućim sadržajima. Naime, tzv. deepfakeovi podrazumijevaju slike, video ili audiozapise ljudi ili događaja koji se zapravo nisu dogodili i koje je često nemoguće razlikovati od stvarnih.

Deepfake videozapisi: Što kad ne možemo vjerovati onome što vidimo i čujemo?

Fotografije uhićenja Donalda Trumpa, fotografije i videosadržaji koji prikazuju Eiffelov toranj kako gori, videozapis koji prikazuje ukrajinskog predsjednika Volodimira Zelenskog koji poziva svoje sunarodnjake da se predaju ili bivšeg američkog predsjednika Baracka Obamu kako drži govor samo su neki primjeri deepfake sadržaja koji su obišli svijet, a na kraju se pokazalo da je riječ o u potpunosti izmišljenim i lažnim sadržajima.

Budući da će djeca sve više odrastati uz takve sadržaje, važno je upozoravati ih i odmalena učiti kritički promišljati, i ono najvažnije, osvijestiti ih od najranijih dana da sadržaji koji kruže medijskim prostorom, osobito na internetu i društvenim mrežama, mogu biti u potpunosti izmišljeni makar ne izgledaju tako. Iza dijeljenja takvih sadržaja često se krije loša namjera – nekoga prevariti ili objavom neistinitih informacija, neovisno o formatu, steći ekonomsku korist. Sve je više takvih sadržaja unutar zabavnih medijskih formata koji se odnose na javne osobe, a koje takvi sadržaji prikazuju u potpuno lažnim, često neprimjerenim situacijama.

Osvijestite koliko je lako napraviti lažnu fotografiju ili video

Centar za sigurniji internet (2024) navodi nekoliko ključnih znakova koji mogu pomoći u otkrivanju i prepoznavanju deepfake sadržaja:

  • Nerazmjerni pokreti usnama, osobito sinkronizacija usta i glasa
  • Neljudski vokalni obrasci
  • Neobično treptanje i različite druge nepravilnosti na licu
  • Neprirodni izgled i boja kože
  • Mrlje između pozadine i lica
  • Neobične sjene koje na snimkama često nisu u skladu s okolinom
  • Robotski pokreti i nedostatak pokreta jezikom
  • Zamagljeni ili nejasni rubovi osobe

Pritom svi korisnici digitalnih tehnologija moraju biti svjesni da se i njihove fotografije i videosadržaji mogu koristiti u manipulativne svrhe. Osobito bi toga trebali biti svjesni roditelji koji često odmalena dijele fotografije i videosadržaje svoje djece na društvenim mrežama. Čak se i takvi sadržaji mogu koristiti u negativne, izrazito manipulativne i opasne svrhe.

Sharenting: što trebate znati o dijeljenju podataka svoje djece na internetu

Deutsche Telekom je 2023. godine pokrenuo izvrsnu kampanju koja upravo kod roditelja treba probuditi svijest o važnosti zaštite privatnosti djece na internetu. Riječ je o kratkom, ali vrlo učinkovitom videu koji prikazuje kako su fotografije devetogodišnje djevojčice Elle iskorištene kako bi se uz pomoć umjetne inteligencije napravila snimka djevojčice u odrasloj dobi koja roditeljima pokušava objasniti da njene fotografije i videosadržaji koje objavljuju na mrežama mogu dovesti do krađe identiteta, dječje pornografije, kao i do izrade manipulativnih audio i videozapisa.

Potičemo vas da pogledate video i razmislite koliko ste sami fotografija i videosadržaja svoje djece objavili proteklih godina. Jeste li ikad razmišljali o negativnim posljedicama objavljivanja takvih sadržaja?

Mediji i dezinformacije – novi priručnik za roditelje

Foto: Merilyn chin from Pixabay