freepik__enhance__64095

Kriminalci treniraju AI da pravi slike zlostavljanja dece koje nikad nisu postojale

Piše: Anastasija Tomić, socijalni radnik 

U eri brzog tehnološkog razvoja, veštačka inteligencija (AI) postaje moćan alat koji može doneti ogromne koristi čovečanstvu. Međutim, kao i svaka moćna tehnologija, ona može biti zloupotrebljena. Jedna od najopasnijih zloupotreba je korišćenje AI za generisanje lažnih, ali uverljivo realističnih slika koje prikazuju seksualno zlostavljanje dece — slike koje nikada nisu nastale u stvarnosti.

Ova nova pojava predstavlja značajan izazov za društvo i pravne sisteme širom sveta. Kriminalci sada koriste AI modele koje treniraju na zabranjenim i eksplicitnim sadržajima kako bi “naučili” veštačku inteligenciju da kreira nove slike koje izgledaju kao da prikazuju stvarne žrtve, iako deca na njima nisu stvarna. Ovakav sadržaj se zatim deli na različitim platformama, često u zatvorenim ili skrivenim mrežama, čineći nadzor i suzbijanje izuzetno složenim.

Prvo, takve slike nemaju fizičke ili biološke dokaze – ne postoje originalne fotografije ili video zapisi, već samo digitalni proizvodi algoritama. To otežava policijskim i pravosudnim institucijama da klasifikuju i procesuiraju ove materijale kao dečju pornografiju, jer zakoni u mnogim zemljama još nisu ažurirani da obuhvate sintetički sadržaj.

Drugo, iako slike nisu “prave”, one imaju vrlo stvaran psihološki i društveni uticaj. Ove slike mogu služiti kao sredstvo za širenje i normalizaciju pedofilskih sklonosti, jer omogućavaju kriminalcima da zadovolje svoje devijantne impulse bez direktnog nanošenja štete stvarnoj deci. Međutim, upravo to “bez direktne štete” je velika zabluda, jer takav sadržaj podržava i podstiče ceo sistem eksploatacije i zloupotrebe.

Treće, deca čije su fotografije korišćene u originalnom materijalu za treniranje AI modela trpe dodatnu viktimizaciju — njihova privatnost i bezbednost su ugroženi čak i ako se slike koje sada kruže na internetu ne odnose na njih lično.

Trenutni sistemi za detekciju i uklanjanje ilegalnog sadržaja zasnivaju se uglavnom na prepoznavanju poznatih slika i video zapisa kroz metode kao što su hash baze podataka. AI-generisane slike su potpuno nove, unikatne i neuporedive sa postojećim materijalima, što znači da ih ovi sistemi ne mogu prepoznati i blokirati.

Takođe, zakonske regulative u mnogim državama ne definišu jasno sintetički seksualni materijal sa decom kao kriminal, što kriminalcima ostavlja legalne rupe za manipulaciju.

Borba protiv ove vrste kriminala zahteva koordinisan pristup. Potrebno je hitno prilagoditi zakone kako bi obuhvatili i sintetički sadržaj, izjednačavajući ga sa stvarnom zloupotrebom dece. Tehnološke kompanije koje razvijaju AI alate moraju implementirati zaštitne mehanizme koji onemogućavaju ili bar otežavaju treniranje modela na ilegalnim materijalima.

Takođe je neophodno ulagati u razvoj novih tehnologija za detekciju sintetičkog sadržaja, kao i podizati svest javnosti o opasnostima i posledicama ove pojave.

Iako deca na slikama koje proizvodi AI ne postoje, šteta koju takav sadržaj nanosi društvu, porodicama i samim žrtvama je vrlo stvarna. Ova zloupotreba tehnologije predstavlja novi front u borbi protiv seksualnog zlostavljanja i eksploatacije dece. Potrebna je hitna i sveobuhvatna reakcija – pravna, tehnološka i društvena – kako bismo zaštitili najranjivije članove našeg društva od ove nove vrste pretnji.