Padomi un triki, kā identificēt videoklipus vai attēlus, kas izveidoti, izmantojot AI

Kā identificēt AI izveidotos videoklipus un attēlus

Pēdējā laikā mākslīgais intelekts ir kļuvis par diskusiju tēmu vairākās jomās. No produktivitātes darba vietā līdz multivides satura veidošanai. Ir metodes un sadaļas, kas jāņem vērā, lai identificētu videoklipus vai attēlus, kas izveidoti, izmantojot AI. Šajā rakstā mēs izpētām dažus no vispazīstamākajiem un to, kā pievērst uzmanību noteiktām detaļām un problēmām, lai izvairītos no dziļiem viltojumiem.

Vispirms jums ir jāsaprot, uz ko attiecas termins deepfake, kā tie tiek izveidoti un kādas sekas tiem var būt. AI izveidotie video vai attēli var šķist ārkārtīgi reāli, taču ļaunprātīga izmantošana var izraisīt pat juridiskus konfliktus.

AI izveidotie videoklipi vai attēli, kas ir dziļais viltojums?

L Deepfakes ir viltoti videoklipi un fotoattēli, kas izveidoti, izmantojot sarežģītus mākslīgā intelekta algoritmus.. Tos izmanto, lai radītu iespaidu, ka cilvēks dara vai saka lietas, kas patiesībā nav notikušas. Mākslīgā intelekta attīstība ir padarījusi arvien grūtāku viltus video atklāšanu. Izstrādājumi ir gandrīz nemanāmi, taču ir daži triki, kā AI identificēt videoklipus vai attēlus, kas var jums palīdzēt. Vienmēr pieņemot, ka nevajadzētu ticēt visam, ko redzat sociālajos tīklos.

Sejas forma; ausis un pirksti

Pirmā iezīme, kas mums ir jāaplūko, lai mēģinātu identificēt viltus video ir seja. Sejas forma un jo īpaši ausis var sniegt jums nojausmu par to, vai videoklips ir viltots. Tas ir saistīts ar sejas asimetriju, ko ir ļoti sarežģīti perfekti atdarināt, izmantojot AI. Tas ir lielākais manipulācijas rādītājs, un to var uztvert īpaši pirkstos un ausīs.

Kriss Ume, slavenais attēlu veidotājs, izmantojot mākslīgo intelektu, YouTube kanālam Corridor Crew pastāstīja, ka sejas forma vienmēr atklāj pavedienus. Lielākais nesaskaņotais punkts IA skaitļos parasti ir ausis un pirksti. Ja varat kontrastēt reālus attēlus un viltotus videoklipus vai fotoattēlus, pievērsiet uzmanību šai detaļai.

vizuālas neveiksmes

Kaut arī attēli un video, kas izveidoti ar AI Tie var izskatīties ārkārtīgi pārliecinoši, ir daži leņķi, kuros parādās trūkumi. Visizplatītākais ir tas, ka tie tiek uztverti, kad mēs pagriežam attēlu uz vienu pusi. Neatkarīgā organizācija Full Fact ir veltīta datu pārbaudei Apvienotajā Karalistē un iesaka "palēnināt video, lai atklātu iespējamās kļūdas AI tehnoloģijā". Tas ir tāpēc, ka ir konkrēti punkti un momenti, kuros mākslīgā intelekta tehnoloģija pilnībā nesakrīt ar reālo video daļu.

AI radītās izteiksmes un žesti videoklipos vai attēlos

Vēl viena atslēga uz atklāt AI mainītus attēlus Tie ir izteicieni un žesti. Šāda veida informācija ir pazīstama kā mīkstā biometriskā informācija, un tā var palīdzēt atklāt cilvēku neatbilstības. Videoklipos un attēlos par slaveniem cilvēkiem šīs nepilnības AI rīku darbībā var atrast daudz biežāk.

“Deepfake” tehnoloģijām joprojām ir problēmas noteikt šos žestus. Tāpēc tur parasti tiek konstatētas neatbilstības vai punkti bez saskares. Tā ir interesanta sadaļa, ko analizēt un mēģināt noteikt, vai tas ir īsts video.

acu izlīdzināšana

Pievēršot uzmanību tam, kā acis ir izlīdzinātas, var būt ļoti noderīgi noteikt mēģinājumus maldināšana ar mākslīgo intelektu. Mēģiniet tuvināt un apturēt video dažādos laikos. Ja acis nefokusējas vienā virzienā, tas var būt mākslīgā intelekta izraisītas izmaiņas. Acu sinhronizācija ir vēl viena detaļa, kurā tiek uztverti trūkumi. AI tehnoloģija vēl nevar pastāvīgi uzturēt šo cilvēka ķermeņa sinhronizāciju. Pēc Ūmes teiktā, to ir vieglāk pamanīt nekustīgos kadros.

Izvairieties no dziļiem viltojumiem

Balss un video sinhronizācija

Visbeidzot, galvenais signāls identificēt dziļos viltojumus Tā ir pareiza balss un video sinhronizācija. Tas ir saistīts ar formu, ko mute pieņem, kad mēs izrunājam noteiktas skaņas. Mākslīgā intelekta tehnoloģijai parasti ir problēmas pareizi sinhronizēt šāda veida skaņas. Tas ir labs rīks, lai noteiktu, vai video vai fotoattēls ir digitāli manipulēts.

Secinājumi

Tajos laikos pēcpatiesība, ir svarīgi noteikt, vai videoklips ir īsts vai ar to ir veiktas manipulācijas. Kad redzat attēlu vai video un rodas šaubas, neaizmirstiet meklēt citos avotos un pārbaudīt, vai ir arī kadri no citiem leņķiem. Internets ir lielisks instruments, taču ir tādi, kas izplata nepatiesu informāciju, cenšoties sabojāt cilvēku reputāciju vai vienkārši izjoko. Tāpēc mums ir jāņem vērā daži pasākumi, kas ļauj apstiprināt fotoattēla vai videoklipa patiesumu. Pretējā gadījumā mākslīgais intelekts kļūst par bīstamu rīku atkarībā no lietošanas veida, ko lietotāji nolemj to izmantot. Izmantojot šīs metodes, varat būt nedaudz vairāk sagatavots dziļo viltojumu noteikšanai.


Atstājiet savu komentāru

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti ar *

*

*

  1. Atbildīgs par datiem: Actualidad emuārs
  2. Datu mērķis: SPAM kontrole, komentāru pārvaldība.
  3. Legitimācija: jūsu piekrišana
  4. Datu paziņošana: Dati netiks paziņoti trešām personām, izņemot juridiskus pienākumus.
  5. Datu glabāšana: datu bāze, ko mitina Occentus Networks (ES)
  6. Tiesības: jebkurā laikā varat ierobežot, atjaunot un dzēst savu informāciju.