Širom svijeta se raspravlja o novim zakonima koji bi parirali zloćudnim pojavama koje nastaju na osnovu tehnologije kao što je Deepfake. Nacrt zakona u Njemačkoj predviđa oštrije kazne kao i uvođenje novog krivičnog djela „povrede osobnog prava digitalnom imitacijom”. Aktivisti koji se bore za zaštitu ljudskih prava kažu da bi većina prekršaja koji se odnose na Deepfake mogla biti sankcionirana na temelju postojećih zakona. Upozoravaju na to da bi poseban zakon mogao kriminalizirati i legitimne upotrebe tehnologije. Ovo pokazuje da je tehnologija, koja briše razliku između stvarnosti i fikcije veliki izazov. Politika mora zaštiti građane od zloupotrebe, a da pri tome ne ograniči prava i slobode ili slobodno izražavanje mišljenja. DW
Čak 99 posto žrtava deepfake pornografije su žene ili djevojčice. Pozivi na akciju sve su glasniji, no sva istraživanja o efikasnosti postojećih detektora pokazuju da oni teško drže korak s alatima za generiranje deepfakea. Uklanjanje takvog materijala s društvenih mreža ide teško, a s pornografskih platformi još i teže. Iako negdje zakoni koji to kažnjavaju postoje ili se tek trebaju implementirati, najveći je problem njihovo šarenilo koji zahtijevaju dokaz da je počinitelj djelovao s namjerom da uznemiri ili zastraši žrtvu, ali i neslaganje o tome treba li distribuciju lažne pornografije goniti kazneno ili u građanskim parnicama. Pokrenute su i prve aplikacije koje nude alate za vizualno prepoznavanje korporativnim klijentima koji žele biti sigurni da se njihovi logotipi, uniforme ili proizvodi ne pojavljuju u pornografiji. Takvi projekti donose novac, no dugoročni je cilj stvoriti alat koji će svaka žena moći koristiti za skeniranje cijelog Interneta u potrazi za lažnim slikama ili videozapisima s njihovim licem. Bug
Tzv. “Undress AI aplikacije” funkcioniraju tako da se uploadaju fotke obučenih djevojaka, da bi ih program prikazao gole, odnosno generirao fotku istih djevojaka bez odjeće, i to vrlo uvjerljivo. Takve se fotke dijele kao amaterska pornografija po messenger grupama. Tako je nedavno “procurila” fotka jedne djevojke iz Srbije, koja je na društvenim mrežama prije nekoliko godina objavila fotku sebe u badiću, ne sluteći da bi jednog dana mogla završiti na internetu bez njega iako se nije fotografirala obnažena, što joj danas stvara noćne more. Ne znaju odakle je ta fotka potekla, ali znaju da se pojavila u jednoj Telegram grupi. Slučaj su prijavili policiji, koja tu ne može ništa, budući da nije bila ucjenjivana ili žrtva nekog drugog kaznenog djela. No, odvjetnici upozoravaju kako bi se slučaj trebao tretirati kao bilo koji drugi slučaj osvetničke pornografije, odnosno objavljivanja privatnih fotki bez pristanka osobe na njoj. Balkan Insight
Prema podacima koje donosi Altindex.com, jedna trećina tvrtki je pogođena prijevarom potpomognutom umjetnom inteligencijom, a više od 80% tvrtki smatraju takve prijevare istinskom prijetnjom. AI omogućuje prevarantima da stvore sofisticirane napade, uključujući deepfakeove, koji postaju sve teži za prepoznati. Koliko je to opasno pokazuje slučaj u kojem je financijski službenik isplatio 25 milijuna dolara nakon video poziva s deepfake glavnim financijskim direktorom. Očekuje se da će troškovi kibernetičkog kriminala dosegnuti rekordne razine, odnosno 9,2 bilijuna dolara u 2024. godini, a ni pogled u dalju budućnost nije optimističan. Tako stručnjaci smatraju da će u sljedećim godinama šteta od kibernetičkog kriminala porasti za 70% i do 2028. dosegnuti 13,8 bilijuna dolara. (Točkanai.hr)
Ne trebamo dakle strahovati od toga što je umjetna inteligencija suviše inteligentna, nego što nije inteligentna dovoljno. Ili barem ne toliko da bi shvatila svo bogatstvo ljudskog humora, ironije i višeznačnih poruka. A jednom kada se njena upotreba proširi, prisilit će nas da podjednako nemaštoviti postanemo i mi. Zajebantsko internetsko “pravilo 34” – koje kaže da “ako nešto postoji, onda na internetu postoji i porno-verzija toga” – skovano je prije točno 20 godina, a umjetna inteligencija, ispada, nije nikakva iznimka od pravila. Iz Beograda je stigla vijest o deepfake fotografijama nastavnica i maloljetnih učenica u pornografskim pozama, a krivci su 13-godišnjaci koji su otkrili besplatne AI programe.
U Mostaru, za to vrijeme, skandal druge vrste: tamošnji Filozofski fakultet, prenosi većina regionalnih medija, prošlog je tjedna najavio međunarodnu politološku konferenciju plakatom s vizurom grada iz koje su izbrisani minareti džamija. Autora ovog teksta priča je podsjetila na epizodu od prije 15-ak godina, kada su klijenti jedne reklamne agencije tražili da se digitalno sa fotografija Mostara izbrišu – minareti. Zbog toga zaključak kako se ništa nije promijenilo, osim što su virtualna rušenja, zahvaljujući umjetnoj inteligenciji, postala jeftinija. Novosti
It’s only been 1 day since Apple launched Vision Pro, and people are going crazy over it.
Here are 10 wild examples you don’t want to miss:
1. Apple Vision Pro Deepfake app concept pic.twitter.com/W1YOqqIxeY
— Angry Tom (@AngryTomtweets) February 3, 2024
Videoisječci remakea filmova koji zapravo ne postoje potaknuli su sudionike nedavno provedenog ispitivanja da se lažno sjećaju filmova, ali jednostavni tekstualni opisi lažnih filmova potiču slične stope lažnog pamćenja. straživači su ispitanicima prikazali niz deepfake videozapisa fiktivnih filmskih remakea u kojima se pojavljuju različiti glumci, poput Willa Smitha u ulozi Nea u “Matrixu”, kojeg je izvorno glumio Keanu Reeves, te Brada Pitta i Angeline Jolie kao glavni protagonisti filma “Isijavanje”. Otprilike polovica ispitanika (njih 49 posto) povjerovalo je da je svaki lažni remake pravi. Štoviše, mnogi su sudionici izjavili da se sjećaju kako su lažni filmovi bili bolji od originala. Međutim, stope lažnog pamćenja iz tekstualnih opisa bile su slično visoke, što sugerira da deepfake tehnologija možda i nije moćnija od drugih alata u iskrivljavanju pamćenja. Bug
Križanje umjetne inteligencije i pornografije urodilo je stvaranjem sadržaja koji može ispuniti sve želje. PornPen je web stranica koja omogućuje generiranje golih ljudi, uglavnom žena, pomoću stotinu oznaka koje su podijeljene u 16 kategorija. Iako nepoznati developer pokušava izbjeći zloupotrebu algoritma pomoću oznaka, to ne znači kako je njegova ideja odjednom opravdana. Ono što trenutno PornPen čini moralno upitnim, pored samog sadržaja, je činjenica što ne znamo izvor podataka iz kojih algoritam stvara modele što znači kako zapravo ne znamo baziraju li se generirani modeli na stvarnim ili izmišljenim ljudima. Aplikacija DeepNude npr. “razodijeva” obučenu osobu koju vi želite i pomoću umjetne inteligencije generira golo tijelo, a njezin poslovni model temelji se na paketima koji određuju koliko fotografija smijete obraditi. Tehnologija je “friška”, ali žrtve već postoje. Netokracija
Tipični deepfake koristi umjetnu inteligenciju da zamijeni osobu u postojećem videu drugom. Velika većina takvih uradaka koristi se za zamjenu pornografskih glumaca slavnim ženama, ali najveću pozornost javnosti privukli su kao moćni alati političke dezinformacije.Neki kažu da se ne treba nadzirati tehnologija nego namjera zlouporabe. U skladu s tom mantrom, javljaju se i tvrtke koje žele demonstrirati potencijal deepfakeova i sintetičkog videa. Platforme društvenih mreža okreću se videu, nastojeći ponoviti uspjeh TikToka; Cisco procjenjuje da će video činiti više od 82 posto internetskog prometa ove godine, što je čak 15 puta više nego 2017. Međutim, tradicionalna video produkcija je skupa, složena i neskalabilna. Gore spomenute tvrtke stoga žele iskoristiti UI kao jeftiniju zamjenu za kamere, montažere, glumce i druge elemente tradicionalne video produkcije. Tvrtke koje se bave proizvodnjom sintetičkih videozapisa ne vole kad se njihovi uradci uspoređuju s uvredljivim deepfakeom. Bug