Nadaljujemo z analizo predloga novega Zakona o medijih, ki je že sprožil številne razprave glede njegovega vpliva na svobodo medijev in tehnološke inovacije.
Novi predlog Zakona o medijih uvaja stroge omejitve pri uporabi generativne umetne inteligence (AI) v medijih. Te določbe so predstavljene kot korak k transparentnosti, vendar v praksi povzročajo številne težave, ki lahko negativno vplivajo na novinarsko delo, inovacije in konkurenčnost medijev v digitalni dobi.
Zakon določa, da morajo biti vse vsebine, ustvarjene z generativno umetno inteligenco, jasno označene. Mediji morajo občinstvo obvestiti o uporabi takšnih sistemov, pri čemer mora biti označevanje sistematično, vidno in skladno s standardi. Poleg tega je prepovedana prikrita uporaba AI, pri kateri bi bilo občinstvo zavedeno, da vsebina ni bila generirana z umetno inteligenco.
Najbolj problematična določba pa je zahteva, da mora izdajatelj v primeru prijave kršitve vsebino umakniti v enem delovnem dnevu. Ta določba je zapisana v členu 23, na strani 12 zakona. Opisana je kot ukrep za zaščito resničnih in zanesljivih informacij, vendar postavlja izdajatelje pred skoraj neizvedljive izzive. Pri večjih medijih, ki dnevno objavljajo stotine vsebin, je takšen rok nerealističen in lahko vodi do nepotrebnih pravnih sporov ter finančnih bremen.
Dodatno je zakonodaja nejasna pri definiranju, kaj predstavlja „prikrivanje“ uporabe AI. Ta pravna nedorečenost ustvarja prostor za arbitrarnost pri presoji in omogoča potencialne zlorabe za utišanje določenih medijev ali vsebin. Manjši mediji so v tem kontekstu še posebej ranljivi, saj nimajo tehničnih in pravnih resursov, da bi se uspešno soočili z zahtevami.
Poleg omejitev zakon ignorira pozitivne aspekte uporabe umetne inteligence v novinarstvu. Sistemi AI ponujajo ogromne možnosti za izboljšanje dostopa do informacij, avtomatizacijo rutinskih nalog in ustvarjanje interaktivnih vsebin, ki angažirajo občinstvo. Stroge omejitve lahko odvračajo medije od uvajanja teh tehnologij, kar jih postavlja v slabši konkurenčni položaj v primerjavi s tujimi kolegi. Obenem predstavlja temeljno težavo vprašanje, kako v praksi ugotoviti, ali je bila umetna inteligenca res uporabljena pri ustvarjanju vsebin. Brez jasnih metod in tehnologij za takšno preverjanje zakonodaja ustvarja pravno negotovost in dodatne ovire za medijske hiše.
Transparentnost in odgovornost pri uporabi umetne inteligence (AI) sta pomembni, vendar ne smemo pozabiti, da je AI zgolj orodje. Odgovornost za vsebine, ki jih ustvari AI, mora vedno nositi oseba, ki to orodje uporablja, saj AI nima ne zavesti ne pravnega statusa. Namesto da bi zakonodaja podpirala etično in odgovorno uporabo AI, uvaja nesorazmerne zahteve, kot je označevanje vseh vsebin, ustvarjenih z AI, in njihovo hitro umikanje v primeru prijav kršitev. S tem se breme nepotrebno prenaša na medijske hiše, ne da bi se osredotočili na ključni problem – odgovornost uporabnikov AI. Tak pristop ne prispeva k večji transparentnosti, temveč ustvarja ovire za medije in zavira inovacije.
vir naslovne slike: Freepik.com
preberite še: