Facebook zabranjuje deepfake video sadržaje - Monitor.hr
08.01.2020. (21:00)

Lažne vijesti

Facebook zabranjuje deepfake video sadržaje

Facebook će od sada brisati manipulirane video i foto sadržaje, tzv. deepfakeove. Izuzetak će biti sadržaji isključivo namijenjeni satiri i parodiji, te video zapisi koji su montirani tako da se subjektu iz govora izbace pojedine riječi ili se red izgovorenih riječi izmiješa. Bug


Slične vijesti

28.07. (15:00)

Ili je sve umjetnost ili ništa

Deepfake je problem, ali postoji bojazan da će prestrogi zakoni kriminalizirati i njezino benigno korištenje

Širom svijeta se raspravlja o novim zakonima koji bi parirali zloćudnim pojavama koje nastaju na osnovu tehnologije kao što je Deepfake. Nacrt zakona u Njemačkoj predviđa oštrije kazne kao i uvođenje novog krivičnog djela „povrede osobnog prava digitalnom imitacijom”. Aktivisti koji se bore za zaštitu ljudskih prava kažu da bi većina prekršaja koji se odnose na Deepfake mogla biti sankcionirana na temelju postojećih zakona. Upozoravaju na to da bi poseban zakon mogao kriminalizirati i legitimne upotrebe tehnologije. Ovo pokazuje da je tehnologija, koja briše razliku između stvarnosti i fikcije veliki izazov. Politika mora zaštiti građane od zloupotrebe, a da pri tome ne ograniči prava i slobode ili slobodno izražavanje mišljenja. DW

18.07. (20:00)

Ali ja se nisam tako fotkala

‘Deepfake’ pornografija pokreće novu industriju zaštite privatnosti

Čak 99 posto žrtava deepfake pornografije su žene ili djevojčice. Pozivi na akciju sve su glasniji, no sva istraživanja o efikasnosti postojećih detektora pokazuju da oni teško drže korak s alatima za generiranje deepfakea. Uklanjanje takvog materijala s društvenih mreža ide teško, a s pornografskih platformi još i teže. Iako negdje zakoni koji to kažnjavaju postoje ili se tek trebaju implementirati, najveći je problem njihovo šarenilo koji zahtijevaju dokaz da je počinitelj djelovao s namjerom da uznemiri ili zastraši žrtvu, ali i neslaganje o tome treba li distribuciju lažne pornografije goniti kazneno ili u građanskim parnicama. Pokrenute su i prve aplikacije koje nude alate za vizualno prepoznavanje korporativnim klijentima koji žele biti sigurni da se njihovi logotipi, uniforme ili proizvodi ne pojavljuju u pornografiji. Takvi projekti donose novac, no dugoročni je cilj stvoriti alat koji će svaka žena moći koristiti za skeniranje cijelog Interneta u potrazi za lažnim slikama ili videozapisima s njihovim licem. Bug

10.07. (12:00)

Još pokušati dokazati da to nisi ti...

AI aplikacija za deepfake skidanje obučene osobe uzela maha u Srbiji, počinitelji nekažnjeni, a žene nemoćne

Tzv. “Undress AI aplikacije” funkcioniraju tako da se uploadaju fotke obučenih djevojaka, da bi ih program prikazao gole, odnosno generirao fotku istih djevojaka bez odjeće, i to vrlo uvjerljivo. Takve se fotke dijele kao amaterska pornografija po messenger grupama. Tako je nedavno “procurila” fotka jedne djevojke iz Srbije, koja je na društvenim mrežama prije nekoliko godina objavila fotku sebe u badiću, ne sluteći da bi jednog dana mogla završiti na internetu bez njega iako se nije fotografirala obnažena, što joj danas stvara noćne more. Ne znaju odakle je ta fotka potekla, ali znaju da se pojavila u jednoj Telegram grupi. Slučaj su prijavili policiji, koja tu ne može ništa, budući da nije bila ucjenjivana ili žrtva nekog drugog kaznenog djela. No, odvjetnici upozoravaju kako bi se slučaj trebao tretirati kao bilo koji drugi slučaj osvetničke pornografije, odnosno objavljivanja privatnih fotki bez pristanka osobe na njoj. Balkan Insight

26.04. (15:00)

I'm shocked!

Sve više poduzeća na udaru “deepfake” prevara

Prema podacima koje donosi Altindex.com, jedna trećina tvrtki je pogođena prijevarom potpomognutom umjetnom inteligencijom, a više od 80% tvrtki smatraju takve prijevare istinskom prijetnjom. AI omogućuje prevarantima da stvore sofisticirane napade, uključujući deepfakeove, koji postaju sve teži za prepoznati. Koliko je to opasno pokazuje slučaj u kojem je financijski službenik isplatio 25 milijuna dolara nakon video poziva s deepfake glavnim financijskim direktorom. Očekuje se da će troškovi kibernetičkog kriminala dosegnuti rekordne razine, odnosno 9,2 bilijuna dolara u 2024. godini, a ni pogled u dalju budućnost nije optimističan. Tako stručnjaci smatraju da će u sljedećim godinama šteta od kibernetičkog kriminala porasti za 70% i do 2028. dosegnuti 13,8 bilijuna dolara. (Točkanai.hr)

19.02. (08:00)

Ništa ljudski nije mi nastrano

Postnikov: Problem s umjetnom inteligencijom nije da stvari postaju gore, nego što – ostaju iste

Ne trebamo dakle strahovati od toga što je umjetna inteligencija suviše inteligentna, nego što nije inteligentna dovoljno. Ili barem ne toliko da bi shvatila svo bogatstvo ljudskog humora, ironije i višeznačnih poruka. A jednom kada se njena upotreba proširi, prisilit će nas da podjednako nemaštoviti postanemo i mi. Zajebantsko internetsko “pravilo 34” – koje kaže da “ako nešto postoji, onda na internetu postoji i porno-verzija toga” – skovano je prije točno 20 godina, a umjetna inteligencija, ispada, nije nikakva iznimka od pravila. Iz Beograda je stigla vijest o deepfake fotografijama nastavnica i maloljetnih učenica u pornografskim pozama, a krivci su 13-godišnjaci koji su otkrili besplatne AI programe.

U Mostaru, za to vrijeme, skandal druge vrste: tamošnji Filozofski fakultet, prenosi većina regionalnih medija, prošlog je tjedna najavio međunarodnu politološku konferenciju plakatom s vizurom grada iz koje su izbrisani minareti džamija. Autora ovog teksta priča je podsjetila na epizodu od prije 15-ak godina, kada su klijenti jedne reklamne agencije tražili da se digitalno sa fotografija Mostara izbrišu – minareti. Zbog toga zaključak kako se ništa nije promijenilo, osim što su virtualna rušenja, zahvaljujući umjetnoj inteligenciji, postala jeftinija. Novosti

12.07.2023. (16:00)

Mandela efekt sve je intenzivniji

Deepfake video zapisi potiču lažna sjećanja na filmove

Videoisječci remakea filmova koji zapravo ne postoje potaknuli su sudionike nedavno provedenog ispitivanja da se lažno sjećaju filmova, ali jednostavni tekstualni opisi lažnih filmova potiču slične stope lažnog pamćenja. straživači su ispitanicima prikazali niz deepfake videozapisa fiktivnih filmskih remakea u kojima se pojavljuju različiti glumci, poput Willa Smitha u ulozi Nea u “Matrixu”, kojeg je izvorno glumio Keanu Reeves, te Brada Pitta i Angeline Jolie kao glavni protagonisti filma “Isijavanje”. Otprilike polovica ispitanika (njih 49 posto) povjerovalo je da je svaki lažni remake pravi. Štoviše, mnogi su sudionici izjavili da se sjećaju kako su lažni filmovi bili bolji od originala. Međutim, stope lažnog pamćenja iz tekstualnih opisa bile su slično visoke, što sugerira da deepfake tehnologija možda i nije moćnija od drugih alata u iskrivljavanju pamćenja. Bug

04.03.2023. (00:00)

Idemo prema svijetu gdje istina i laž više neće biti važne

AI pornografija može ispuniti svaku vašu želju. U tome je i problem.

Križanje umjetne inteligencije i pornografije urodilo je stvaranjem sadržaja koji može ispuniti sve želje. PornPen je web stranica koja omogućuje generiranje golih ljudi, uglavnom žena, pomoću stotinu oznaka koje su podijeljene u 16 kategorija. Iako nepoznati developer pokušava izbjeći zloupotrebu algoritma pomoću oznaka, to ne znači kako je njegova ideja odjednom opravdana. Ono što trenutno PornPen čini moralno upitnim, pored samog sadržaja, je činjenica što ne znamo izvor podataka iz kojih algoritam stvara modele što znači kako zapravo ne znamo baziraju li se generirani modeli na stvarnim ili izmišljenim ljudima. Aplikacija DeepNude npr. “razodijeva” obučenu osobu koju vi želite i pomoću umjetne inteligencije generira golo tijelo, a njezin poslovni model temelji se na paketima koji određuju koliko fotografija smijete obraditi. Tehnologija je “friška”, ali žrtve već postoje. Netokracija