Slijede razlike između dviju inačica stranice.
| Starije izmjene na obje strane Starija izmjena Novija izmjena | Starija izmjena | ||
| racfor_wiki:seminari:tehnike_detekcije_deep_fake_videa [2023/01/12 18:32] ss49505 [Uvod] | racfor_wiki:seminari:tehnike_detekcije_deep_fake_videa [2024/12/05 12:24] (trenutno) | ||
|---|---|---|---|
| Redak 31: | Redak 31: | ||
| ===== O metodama detekcije ===== | ===== O metodama detekcije ===== | ||
| - | Deep fake videi kreirani su pomoću umjetne inteligencije, | + | Deep fake videi kreirani su pomoću umjetne inteligencije, | 
| - | Budući da se trenutne metode uglavnom temeljene na dubokom učenju one uvelike ovise o količini podataka, te o izgradnji skupova podataka visoke kvalitete. Kako se deepfake algoritmi razvijaju, novi skupovi podataka | + | Budući da se trenutne metode uglavnom temeljene na dubokom učenju one uvelike ovise o količini podataka, te o izgradnji skupova podataka visoke kvalitete. Kako se deepfake algoritmi razvijaju, novi skupovi podataka | 
| Redak 48: | Redak 48: | ||
| ===== Metode zasnovane na vremenskoj konzistenciji===== | ===== Metode zasnovane na vremenskoj konzistenciji===== | ||
| - | Ova metoda se provodi u dvije faze. Prva faza uključuje korištenje CNN-a (convolutional neural network) za izdvajanje lica iz svakog okvira videa. Lice se izreže te se poravna/ | + | Ova metoda se provodi u dvije faze. Prva faza uključuje korištenje CNN-a (convolutional neural network) za izdvajanje lica iz svakog okvira videa. Lice se izreže te se poravna/ | 
| - | Naime radi zamjene lica može doći do narušavanja sličnosti okvira a to je točno ono što i tražimo i zato slijedi druga faza u kojoj CNN sa LSTM(Long short-term memory) pokušava otkriti vremenske nepravilnosti proizvedene tijekom postupka zamjene lica. Ako su uočene nepravilnosti video se označuje kao fake. | + | Naime radi zamjene lica može doći do narušavanja sličnosti okvira a to je točno ono što i tražimo i zato slijedi druga faza u kojoj CNN sa LSTM(Long short-term memory) pokušava otkriti vremenske nepravilnosti proizvedene tijekom postupka zamjene lica uspoređujući izrezano lice sa svojim skupom podataka. Ako su uočene nepravilnosti video se označuje kao fake. | 
| {{: | {{: | ||
| - | U članku [3] je provedena studija koja je koristeči skup podataka od 600 videozapisa, | + | U članku [3] je provedena studija koja je koristeći skup podataka od 600 videozapisa, | 
| - | slučajni odabiri iz skupa podataka HOHA. Rezultati su pokazali da se ovim pristupom | + | slučajni odabiri iz skupa podataka HOHA. Rezultati su pokazali da se ovim pristupom | 
| ===== Metode zasnovane na treptanju===== | ===== Metode zasnovane na treptanju===== | ||
| - | Treptanje je poznato kao temeljna biološka funkcija koju je iznimno teško oponašati u deepfake video zapisima. S prosječnom stopom od 4,5 treptaja u sekundi i trajanjem treptaja | + | Treptanje je poznato kao temeljna biološka funkcija koju je iznimno teško oponašati u deepfake video zapisima. S prosječnom stopom od 4,5 treptaja u sekundi i trajanjem treptaja | 
| {{: | {{: | ||
| Redak 84: | Redak 84: | ||
| Deep fake videi postaju sve veći problem jer se ljudskim okom teško prepozna razlika između stvarnog i fake videa te time videi gube na vjerodostojnosti jer ne znamo da li su stvarni ili ne. | Deep fake videi postaju sve veći problem jer se ljudskim okom teško prepozna razlika između stvarnog i fake videa te time videi gube na vjerodostojnosti jer ne znamo da li su stvarni ili ne. | ||
| - | Razvitkom tehnologije poboljšava se izrada deep fake videa, te se taj razvoj mora pratiti | + | Razvitkom tehnologije poboljšava se izrada deep fake videa, te se taj razvoj mora pratiti | 
| ===== Literatura ===== | ===== Literatura ===== | ||
| Redak 93: | Redak 93: | ||
| for Face Manipulation Detection in Videos]] | for Face Manipulation Detection in Videos]] | ||
| - | [3] [[https://www.mdpi.com/ | + | [3] [[https://pubmed.ncbi.nlm.nih.gov/35746333/|Hina Fatima Shahzad, | 
| [4][[https:// | [4][[https:// | ||