U posljednje vrijeme dostupno nam je sve više različitih AI alata koji samo na temelju našeg tekstualnog upisa mogu stvoriti zadivljujuće fotografije i videozapise.
Takav sadržaj koji stvori AI može izgledati toliko realno da je ponekad teško prepoznati što je stvarno, a što lažno i kreirano s pomoću tehnologije, što otvara prostor brojnim manipulacijama, lažima itd.
Da to toga ne bi došlo na YouTubeu, iz Googlea su objavili nova pravila za kreatore prema kojima bi se sadržaj stvoren s pomoću AI-a trebaojasno obilježavati unutar videa posebnom oznakom. Kompanija je još prošle godine najavila takvu inicijativu, a sada je krenula s riječi na djela. Nova pravila odnose se na kreatore koji će, kako stoji na službenom blogu YouTubea, morati otkriti “promijenjeni i sintetički sadržaj”, odnosno one videozapise koji izgledaju realno, ali su napravljeni pomoću umjetne inteligencije.
Kreatori će tako trebati označiti sadržaj u kojem se stvarno lice zamjenjuje drugim licem ili se u videu koristi sintetički generiran glas osoba. To se pogotovo odnosi na deepfake fotografije i videe, za koja svima mora biti jasno da nisu stvarna, već da su rezultat tehnologije. Mora se označiti i ako se koriste i mijenjaju slike i videi stvarnih događaja ili mjesta, npr. ako je u videu prikazan požar neke poznate građevine, a stvoren je korištenjem AI alata, piše Zimo.hr.
Isto vrijedi i za stvaranje realističnih scena kako bi se stvorili neki izmišljeni događaji te su na blogu YouTubea dali primjer u kojem se tornado približava nekom stvarnom gradu. Ako na takvom videu nema oznake da je riječ o umjetno generiranom sadržaju, mogli bi pomisliti kako prijeti stvarna opasnost od tornada, što bi na kraju moglo dovesti do velike panike.