Savjeti i trikovi za prepoznavanje videozapisa ili slika kreiranih pomoću AI

Kako prepoznati video zapise i slike koje stvara AI

En los últimos tiempos umjetna inteligencija je postala tema rasprave u više oblasti. Od produktivnosti na radnom mjestu do kreiranja multimedijalnih sadržaja. Postoje tehnike i odjeljci koje treba razmotriti kako biste identificirali video zapise ili slike stvorene pomoću AI. U ovom članku istražujemo neke od najpoznatijih, te kako obratiti pažnju na određene detalje i probleme kako biste izbjegli deepfakes.

Prvo morate razumjeti na šta se termin deepfake odnosi, kako nastaju i kakve implikacije mogu imati. Videozapisi ili slike koje stvara AI mogu izgledati izuzetno stvarni, ali zloupotreba može čak dovesti do pravnih sukoba.

Videozapisi ili slike koje je kreirala AI, šta je deepfake?

u Deepfakes su lažni video snimci i fotografije napravljeni od složenih algoritama umjetne inteligencije.. Koriste se kako bi izgledalo da osoba radi ili govori stvari koje se zaista nisu dogodile. Napretkom umjetne inteligencije sve je teže otkriti lažni video. Kreacije su gotovo neprimjetne, ali postoje neki trikovi za identifikaciju videa ili slika pomoću AI koji vam mogu pomoći. Uvijek pod pretpostavkom da ne treba vjerovati svemu što vidite na društvenim mrežama.

Oblik lica; ušiju i prstima

Prva karakteristika na koju moramo obratiti pažnju da bismo pokušali prepoznavanje lažnih videa je lice. Oblik lica, a posebno ušiju, mogu vam dati nagovještaj da li je video lažan. To je zbog asimetrije lica, koja je vrlo složena za savršeno imitiranje korištenjem AI. To je najveći pokazatelj manipulacije i može se uočiti posebno u prstima i ušima.

Chris Ume, poznati kreator slika koje koriste umjetnu inteligenciju, rekao je za YouTube kanal Corridor Crew da oblik lica uvijek otkriva tragove. Najveća neskladna tačka u IA figurama su obično uši i prsti. Ako možete suprotstaviti stvarne slike i deepfake videozapise ili fotografije, obratite pažnju na ovaj detalj.

vizuelni kvarovi

Dok je slike i video zapisi kreirani pomoću AI Možda izgledaju izuzetno uvjerljivo, postoje neki uglovi gdje se pojavljuju nedostaci. Najčešća stvar je da se percipiraju kada sliku okrenemo na jednu stranu. Nezavisna organizacija Full Fact posvećena je provjeri podataka u Ujedinjenom Kraljevstvu i preporučuje “usporavanje videa kako bi se otkrile moguće greške u tehnologiji umjetne inteligencije”. To je zato što postoje određene točke i momenti u kojima se tehnologija umjetne inteligencije ne poklapa u potpunosti sa stvarnim dijelom videa.

Izrazi i pokreti koje stvara AI u video zapisima ili slikama

Još jedan ključ za otkriti slike izmijenjene umjetnom inteligencijom Oni su izrazi i gestovi. Ova vrsta informacija poznata je kao meka biometrija i može pomoći u otkrivanju nedosljednosti kod ljudi. U video snimcima i slikama o poznatim ljudima mnogo je češće pronaći ove neslaganja u radu AI alata.

“Deepfake” tehnologije i dalje imaju problema s otkrivanjem ovih gestova. Zato se tu obično otkrivaju nedosljednosti ili tačke bez kontakta. To je zanimljiv dio za analizu i pokušaj otkrivanja da li je to pravi video ili ne.

poravnanje očiju

Obraćanje pažnje na to kako su oči poravnate takođe može biti veoma korisno u otkrivanju pokušaja obmana sa veštačkom inteligencijom. Pokušajte zumirati i pauzirati videozapis u različito vrijeme. Ako se oči ne fokusiraju u istom smjeru, to može biti promjena zbog umjetne inteligencije. Sinhronizacija očiju je još jedan detalj u kojem se uočavaju nedostaci. Tehnologija umjetne inteligencije još uvijek ne može trajno održati ovu sinhronizaciju ljudskog tijela. Prema riječima Ume, to je lakše uočiti u statičnim kadrovima.

Izbjegavajte deepfakes

Sinhronizacija glasa i videa

Konačno, ključni signal za identificirati deepfakes To je ispravna sinhronizacija između glasa i videa. To je zbog oblika koji usta poprimaju kada izgovaramo neke određene zvukove. Tehnologija umjetne inteligencije obično ima problema s pravilnom sinhronizacijom ovih vrsta zvukova. Kada je u pitanju otkrivanje da li je video ili fotografija digitalno manipulisana, ovo je dobar alat.

ZAKLJUČCI

U vremenima post-istina, otkrivanje da li je video stvaran ili je izmanipulisan od suštinskog je značaja. Kada vidite sliku ili video i sumnjate, ne zaboravite pretražiti druge izvore i provjeriti ima li i snimaka iz drugih uglova. Internet je odličan alat, ali ima onih koji šire lažne informacije pokušavajući da unište reputaciju ljudi ili jednostavno zbijaju šale. Zato moramo uzeti u obzir neke mjere koje nam omogućavaju da potvrdimo istinitost fotografije ili videa. U suprotnom, umjetna inteligencija postaje opasno oruđe ovisno o tome na koji način joj korisnici odluče. Pomoću ovih tehnika možete biti malo spremniji za otkrivanje deepfakesa.


Ostavite komentar

Vaša e-mail adresa neće biti objavljena. Obavezna polja su označena sa *

*

*

  1. Odgovoran za podatke: Actualidad Blog
  2. Svrha podataka: Kontrola neželjene pošte, upravljanje komentarima.
  3. Legitimacija: Vaš pristanak
  4. Komunikacija podataka: Podaci se neće dostavljati trećim stranama, osim po zakonskoj obavezi.
  5. Pohrana podataka: Baza podataka koju hostuje Occentus Networks (EU)
  6. Prava: U bilo kojem trenutku možete ograničiti, oporaviti i izbrisati svoje podatke.