Савети и трикови за идентификацију видео записа или слика направљених помоћу вештачке интелигенције

Како препознати видео записе и слике које је креирала АИ

У новије време вештачка интелигенција је постала тема разговора у више области. Од продуктивности на радном месту до креирања мултимедијалних садржаја. Постоје технике и одељци које треба размотрити да бисте идентификовали видео снимке или слике које су направљене помоћу вештачке интелигенције. У овом чланку истражујемо неке од најпознатијих и како обратити пажњу на одређене детаље и проблеме како бисте избегли деепфакес.

Прво морате да разумете на шта се термин деепфаке односи, како настају и какве импликације могу имати. Видео снимци или слике које ствара АИ могу изгледати изузетно стварни, али злоупотреба може чак довести до правних сукоба.

Видео снимци или слике које је креирала АИ, шта је деепфаке?

Л Деепфакес су лажни видео снимци и фотографије направљени од сложених алгоритама вештачке интелигенције.. Користе се да би се учинило да особа ради или говори ствари које се заиста нису догодиле. Напредак вештачке интелигенције отежава откривање лажног видеа. Креације су готово неприметне, али постоје неки трикови за идентификацију видео записа или слика помоћу вештачке интелигенције који вам могу помоћи. Увек под претпоставком да не треба веровати свему што видите на друштвеним мрежама.

Облик лица; ушију и прстима

Прва карактеристика на коју морамо обратити пажњу да бисмо покушали препознати лажне видео снимке је лице. Облик лица, а посебно ушију, могу вам дати назнаку да ли је видео лажан. То је због асиметрије лица, која је веома сложена за савршено имитирање помоћу АИ. То је највећи показатељ манипулације и може се уочити посебно у прстима и ушима.

Цхрис Уме, познати креатор слика помоћу вештачке интелигенције, рекао је за Јутјуб канал Цорридор Црев да облик лица увек открива трагове. Највећа нескладна тачка у ИА фигурама су обично уши и прсти. Ако можете да упоредите стварне слике и лажне видео записе или фотографије, обратите пажњу на овај детаљ.

визуелни недостаци

Док је слике и видео записи направљени помоћу вештачке интелигенције Можда изгледају изузетно убедљиво, постоје неки углови где се појављују недостаци. Најчешћа ствар је да се они опажају када слику окренемо на једну страну. Независна организација Фулл Фацт посвећена је верификацији података у Уједињеном Краљевству и препоручује „успоравање видеа како би се откриле могуће грешке у технологији вештачке интелигенције“. То је зато што постоје одређене тачке и моменти у којима се технологија вештачке интелигенције не поклапа у потпуности са стварним делом видеа.

Изрази и гестови које ствара вештачка интелигенција у видео снимцима или сликама

Још један кључ за открити слике измењене вештачком интелигенцијом То су изрази и гестови. Ова врста информација је позната као мека биометрија и може помоћи у откривању недоследности код људи. У видео снимцима и сликама о познатим личностима много је чешће пронаћи ове неслагања у раду АИ алата.

„Деепфаке“ технологије и даље имају проблема са откривањем ових гестова. Зато се ту обично откривају недоследности или тачке без контакта. То је занимљив одељак за анализу и покушај да се открије да ли је то прави видео или не.

поравнање очију

Обраћање пажње на то како су очи поравнате такође може бити веома корисно у откривању покушаја да се обмана са вештачком интелигенцијом. Покушајте да зумирате и паузирате видео у различито време. Ако се очи не фокусирају у истом правцу, то може бити промена због вештачке интелигенције. Синхронизација очију је још један детаљ у коме се уочавају недостаци. Технологија вештачке интелигенције још увек не може трајно да одржи ову синхронизацију људског тела. Према Умеу, то је лакше уочити у непокретним кадровима.

Избегавајте деепфакес

Синхронизација гласа и видеа

Коначно, кључни сигнал за идентификују деепфакес То је исправна синхронизација између гласа и видеа. То је због облика који уста усвајају када изговарамо неке одређене звукове. Технологија вештачке интелигенције обично има проблема са правилном синхронизацијом ових врста звукова. Када је у питању откривање да ли је видео или фотографија дигитално изманипулисана, ово је добар алат.

Закључци

У временима пост-истина, откривање да ли је видео стваран или је изманипулисан је од суштинског значаја. Када видите слику или видео и сумњате, не заборавите да претражите друге изворе и проверите да ли има и снимака из других углова. Интернет је одлично средство, али има оних који шире лажне информације покушавајући да униште репутацију људи или једноставно збијају шале. Зато морамо узети у обзир неке мере које нам омогућавају да потврдимо истинитост фотографије или видео снимка. У супротном, вештачка интелигенција постаје опасно оруђе у зависности од тога на који начин корисници одлуче да јој дају. Са овим техникама можете бити мало спремнији да откријете деепфакес.


Оставите свој коментар

Ваша емаил адреса неће бити објављена. Обавезна поља су означена са *

*

*

  1. Одговоран за податке: Ацтуалидад Блог
  2. Сврха података: Контрола нежељене поште, управљање коментарима.
  3. Легитимација: Ваш пристанак
  4. Комуникација података: Подаци се неће преносити трећим лицима, осим по законској обавези.
  5. Похрана података: База података коју хостује Оццентус Нетворкс (ЕУ)
  6. Права: У било ком тренутку можете ограничити, опоравити и избрисати своје податке.