• Актуальнае
  • Медыяправа
  • Карыснае
  • Накірункі працы і кампаніі
  • Агляды і маніторынгі
  • Рэкамендацыі па бяспецы калег

    Кіберзброя. Як выявіць маніпуляцыі з візуальным кантэнтам?

    А таксама якія інструменты аналізу фота і відэа могуць быць карысныя ў журналісцкай працы. Пра ўсё гэта распавялі  сузаснавальніца незалежнай украінской арганізацыі StopFake.org Вольга Юркова і журналіст, рэдактар, медыятрэнер Аляксей Шота падчас варкшопаў, што ладзяцца ў межах Фактчэк-марафону «Давярай, але правярай» праекта Рэгіянальнага офіса Прадстаўніцтва Фонда ім. Фрыдрыха Эберта «Дыялог Усходняя Еўропа». Прапануем вам канспект заняткаў.

    Адкуль браць інфармацыю (асабліва калі вы не ў Беларусі)

    У якасці крыніц інфармацыі першымі часта называюць сацыяльныя сеткі: паблікі ў Face­book і Vkon­tak­te, фотафакты ў Insta­gram, чаты, чат-боты і каналы ў Telegram — мясцовыя, тэматычныя і іншыя.

    За імі ідуць сведчанні і фотаздымкі ад знаёмых і відавочцаў. Таксама карысныя лічбы і факты можна знайсці проста ў афіцыйных ці фінансаваных дзяржавай крыніцах. Сярод іх, напрыклад, прэс-службы арганізацый, лакальныя і нацыянальныя дзяржаўныя СМІ.

    Варта звярнуць увагу на масівы і аналіз дадзеных, якія можа знайсці ў сеціве: ад сайта Белстата да апытанняў (Chatham House ды іншыя) і спадарожнікавых здымкаў (Maxar і іншыя).

    Але атрыманыя звесткі могуць быць няпоўнымі ці недастатковымі, а часам — патрабаваць дадатковай праверкі. 

    Што такое дыпфейк?

    Частка інфармацыі прыходзіць у выглядзе фота ці відэа, якія самі па сабе перасталі з’яўляцца дастатковымі доказамі факта. Яны могуць быць мадыфікаваныя ці нават створаныя штучным інтэлектам, ці AI з нуля.

    Стварэнне фота, відэа ці аўдыяпрадукту з нуля нейрасеткай і называецца дыпфэйкам — deep­fake. Літаральна гэта азначае «падробка сродкамі глыбокага навучання».

    Дыпфэйкі зрабіліся папулярнымі прыкладна шэсць гадоў таму, калі адзін з карыстальнікаў Red­dit падстаўляў у порна твары знакамітых асоб. З таго часу тэхналогіі развіваюцца вельмі хутка, і з кожным годам якасць штучна згенераванага кантэнту робіцца вышэйшай.

    Тэхналогіі выкарыстоўваюцца не толькі для замены твараў, але таксама для генерацыі цэлых фэйкавых відэа і аўдыя. Чым больш у сеціве інфармацыі пра чалавека, тым больш верагодна, што пра яго тэхнічна магчыма стварыць дыпфейк. Што тычыцца мадыфікацыі ўжо існуючай інфармацыі, то вельмі даступны аб’ект — запісы анлайн-камунікацыі.

    Як вызначыць дыпфэйк і фотамантаж?

    Першы спосаб — параўнаць з аналагам з першакрыніцы. Крыніцу фота можна знайсці зваротным пошукам праз Google Image Reverse Search, дзе трэба запампаваць малюнак ці ўставіць спасылку, а потым націснуць «Знайсці крыніцу». Альбо можна выкарыстаць Tin­eye, які пасля запампоўкі фота прапануе вынікі пошуку і даты публікацый.

    Яшчэ адзін варыянт — усталяваць дадатак да браўзера, якім можна карыстацца, пстрыкнуўшы на малюнак правай кнопкай мышы. Напрыклад, гэта Search by Image для Chrome. Ён уключае розныя сістэмы пошуку і таксама опцыю All searche images па іх усіх.

    Другі спосаб вызначыць мадыфікацыю — праграмны. Напрыклад, анлайн-сэрвіс Foren­si­cal­ly дазваляе ўбачыць прыкметы фотамантажу і дадзеныя здымка.

    • Опцыя Error Lev­el Analy­sis паказвае ўклееныя месцы, падсвечваючы іх іншым колерам.

    • Clone Detec­tion падсвечвае скапіяваныя і ўклееныя элементы малюнка (так можа быць павялічаная колькасць людзей, дададзеныя вокны на будынак і г. д.).

    З відэа спрацуе:

    • плагін InVID-WeV­er­i­fy для Fire­fox (інструкцыя);

    • проста пакадравы прагляд, бо АІ стварае відэа з асобных кадраў. У гэтым дапаможа відэаплэер VLC для камп’ютара ці Wathcframe­byframe для YouTube.

    Вось, напрыклад, знакамітае фэйкавае відэа, дзе Кім Чэн Ын выказваецца пра дэмакратыю:

    Аб чым раскажуць мета- і геатэгі

    Трэці спосаб вызначыць маніпуляцыю — праглядзець інфармацыю пра фотаздымак. Гэта можна рабіць не толькі праз адмысловыя праграмы, але і проста ў Win­dows, націснуўшы на малюнак правай кнопкай мышы. Адкрыецца вакенца, дзе трэба шукаць укладкі «Уласцівасці — Падрабязна». Там могуць быць напісаныя:

    • Геатэгі, калі ў аўтара фота ў тэлефоне не выключана захаванне геалакцыі ў файле (гэта рэдкасць).

    • Метададзеныя, калі іх адмыслова не пачысцілі: мадэль фотаапарата, дата фота, калі і нават якім софтам зробленая мадыфікацыя.

    Важна! З 2020 года актывісты часта чысцяць метатэгі фотаздымкаў, каб па іх не знайшлі сілавікі. З той жа мэтай рэдакцыі лепш правяраць і чысціць метададзеныя здымкаў перад публікацыяй. Гэта можна рабіць у графічных рэдактарах, анлайн-сэрвісах і нават дадатках для тэлефона.

    Як натрэніраваць вока на дыпфэйкі?

    Чацвёрты спосаб вызначыць маніпуляцыю — «натрэніраваць вока» і ўважліва аналізаваць выявы.

    Згенераваны кантэнт бывае рознай якасці ў залежнасці ад выдаткаваных на яго рэсурсаў. У тэорыі яго лёгка пазнаць: на фота гэта крывыя будынкі, размыты край вопраткі, ненатуральныя плечы ці нават часткі цела і гэтак далей. На аўдыязапісе гэта змена тону голаса, няякасны гук.

    На відэа — пэўная «мульцяшнасць» героя, калі ён крыху падобны да персанажа камп’ютарнай гульні. Гэта ненатуральная міміка, міргае занадта рэдка альбо занадта часта. Вусны могуць рухацца несінхронна з прамоўленымі словамі, а галава — не рухацца ўвогуле. Якасць відэа можа быць кепскай — акурат для таго, каб не кідаліся ў вочы дзіўныя дэталі.

    На няякасным дыпфейку чалавек наадварот будзе занадта сіметрычны, але яму будзе не хапаць завушніцы, дужкі акуляраў, будуць няроўнасці ў вобласці шыі, валасоў, пальцаў. Надпісы могуць быць нечытэльнымі.

    Можна скласці яшчэ вельмі доўгі спіс прыкметаў. Але калі каротка — чалавек на дыпфэйку выглядае ненатуральна, і яскравей за ўсё гэта бачна па форме, колеру і рухах дэталяў.

    Натрэніраваць вока можна тут:

    А што наконт тэксту?

    З тэкстам пакуль працуе толькі праверка ўручную: Chat­G­PT і іншыя нейрасеткі не заўсёды генеруюць карэктную і актуальную інфармацыю. Наколькі — залежыць ад спосабу навучання нейрасеткі і ад таго, якой былі якасць і актуальнасць інфармацыі для навучання. Базы Chat­G­PT — не зусім актуальныя і абмежаваныя 2021 годам.

    Дарэчы, зараз існуюць якасныя праграмы для транскрыбавання аўдыя — і іх выкарыстанне таксама можа правакаваць скажэнне інфармацыі. Але рэцэпт усё той жа — правяраць.

    Бонус — як знайсці чалавека па фота ці скрыншоце

    Штучны інтэлект дапамагае не толькі ствараць неіснуючыя асобы, але і апрацоўваць звесткі пра рэальных людзей. Напрыклад, вызначыць асобу па фота і відэа.

    Ідэнтыфікацыя па фота можа дапамагчы, напрыклад, даведацца імёны набліжаных да ўладаў, што фігуруюць на афіцыйных здымках. Таксама можна даведацца імёны людзей, якіх сілавікі затрымалі і выклалі з імі фота ці відэа без імя і прозвішча.

    Адзін з інструментаў для ідэнтыфікацыі асобы — анлайн-сэрвіс Pimeyes. Сюды можна запампаваць фота ці два (лепш з розных ракурсаў). Пасуюць нават скрыншоты з відэа і выявы, дзе чалавек у шапцы ці акулярах.

    Сэрвіс пакажа, на якіх сайтах сустракаецца твар чалавека, у тым ліку ў некаторых сацсетках. Бясплатная версія дае тры спробы пошуку на дзень, у платнай гэтая колькасць большая, да таго ж можна проста перайсці па спасылцы на крыніцу.

    Каб вызначыць крыніцу праз бясплатную версію, можно зрабіць скрыншот фота з выдачы на сайце. Пасля — пашукаць яго праз пошук па малюнку ў Google і Яндэксе (яны паказваюць розныя вынікі).

    Чытайце яшчэ:

    Появилось руководство по фандрейзингу от MediaDev

    Феномен Midjourney: чаму гэтая нейрасетка стала мегапапулярнай і як ёй карыстацца?

    «Трымаемся праўды, трымаемся разам!» З Вільні стартаваў марафон салідарнасці са зняволенымі калегамі

    Самыя важныя навіны і матэрыялы ў нашым Тэлеграм-канале — падпісвайцеся!
    @bajmedia
    Найбольш чытанае
    Кожны чацвер мы дасылаем на электронную пошту магчымасці (гранты, вакансіі, конкурсы, стыпендыі), анонсы мерапрыемстваў (лекцыі, дыскусіі, прэзентацыі), а таксама самыя важныя навіны і тэндэнцыі ў свеце медыя.
    Падпісваючыся на рассылку, вы згаджаецеся з Палітыкай канфідэнцыйнасці