Nowe badania: większość z nas nie rozpozna twarzy wygenerowanej przez AI

Nowe badania: większość z nas nie rozpozna twarzy wygenerowanej przez AI
4/5 - (36 votes)

Coraz doskonalsze deepfake’i twarzy zalewają internet, a naukowcy właśnie sprawdzili, czy zwykli użytkownicy w ogóle mają szansę je wychwycić.

Najważniejsze informacje:

  • Wiedza o AI oraz wysokie IQ nie gwarantują lepszego rozpoznawania sztucznie wygenerowanych twarzy.
  • Najważniejszym czynnikiem sukcesu w wykrywaniu deepfake’ów jest ogólna, wrodzona zdolność rozpoznawania obiektów i detali wizualnych.
  • Sztuczne portrety stają się na tyle doskonałe, że tradycyjne metody ich identyfikacji (szukanie błędów w dłoniach czy cieniach) przestają działać.
  • Zdolność do identyfikacji fałszywych obrazów jest skorelowana z biegłością w diagnostyce medycznej, np. analizie zdjęć RTG.
  • Edukacja użytkowników jest niewystarczająca do walki z dezinformacją; niezbędne są systemowe zabezpieczenia i automatyczne detektory po stronie platform.

Najnowsze badania psychologów z amerykańskiego uniwersytetu Vanderbilt pokazują, że codzienny kontakt z technologią, a nawet wiedza o AI, wcale nie gwarantują, że rozpoznamy sztucznie wygenerowaną twarz. Kluczowa okazuje się zupełnie inna, wrodzona zdolność wzrokowa, na którą nie mamy dużego wpływu.

Gdy jedno fałszywe zdjęcie zatrzymuje pociągi

Badacze przypominają głośną sytuację z Wielkiej Brytanii. W nocy, kiedy region odczuł niewielkie trzęsienie ziemi, w sieci zaczęło krążyć zdjęcie zawalonego kolejowego mostu. Fotografia wyglądała przekonująco: zniszczona konstrukcja, dramatyczna sceneria, komentarze pełne paniki. Brytyjski przewoźnik zdecydował się zablokować ruch pociągów, aby uniknąć katastrofy.

Dopiero po czasie okazało się, że most stoi nienaruszony. Obraz powstał dzięki generatywnej sztucznej inteligencji. Realne skutki? Zatrzymane składy, finansowe straty, zamieszanie w komunikacji. To przykład pokazujący, że nie chodzi już o zabawne memy, ale o decyzje podejmowane na podstawie fałszywych treści wizualnych.

Badania nad deepfake’ami nie są już ciekawostką technologiczną. To reakcja na sytuacje, w których wygenerowane obrazy zaczynają wpływać na bezpieczeństwo, pieniądze i politykę.

Przez lata radą ekspertów było: „szukaj zniekształceń dłoni, zębów, dziwnych cieni”. Problem w tym, że generatory obrazów błyskawicznie się poprawiają. Dziś takie proste triki przestają działać, a w wielu przypadkach fałszywe portrety wyglądają nawet bardziej „idealnie” niż prawdziwe zdjęcia.

AI Face Test: naukowcy sprawdzają, kto widzi fałsz

Zespół z Vanderbilt postanowił zmierzyć, w jakim stopniu ludzie są w stanie odróżnić autentyczne zdjęcia twarzy od obrazów wygenerowanych przez AI. Stworzyli w tym celu specjalne narzędzie o nazwie AI Face Test. Uczestnicy oglądali serię portretów i za każdym razem musieli wskazać, czy widzą prawdziwego człowieka, czy komputerową kreację.

Badacze powiązali wyniki testu z innymi cechami uczestników. Sprawdzali m.in.:

  • poziom ogólnej inteligencji,
  • doświadczenie w pracy lub zabawie z AI,
  • specjalistyczne umiejętności rozpoznawania twarzy,
  • ogólną zdolność rozpoznawania przedmiotów na obrazach.

Intuicja wielu osób podpowiada: im bardziej ktoś „siedzi w technologiach”, tym lepiej wyłapie deepfake. Badanie pokazało coś zupełnie innego.

Inteligencja nie pomaga. Liczy się coś zupełnie innego

Psychologowie zauważyli, że wysokie IQ, biegłość w AI czy doświadczenie zawodowe związane z obrazem (np. praca grafika) nie tłumaczą znaczących różnic w skuteczności rozpoznawania sztucznych twarzy. Osoby uznawane za „technicznych” wcale nie wypadały lepiej od tych, które korzystają z internetu w podstawowy sposób.

Najsilniejszym czynnikiem okazała się ogólna zdolność rozpoznawania obiektów. Chodzi o dość szeroką, w dużej mierze wrodzoną cechę – to, jak sprawnie czytamy wizualne szczegóły wokół nas: kształty, faktury, subtelne różnice między podobnymi elementami.

Osoby, które mają ponadprzeciętną zdolność „widzenia szczegółów”, lepiej wyłapują nienaturalne drobiazgi na syntetycznych obrazach – delikatne szumy, za gładkie powierzchnie, zbyt idealnie rozmieszczone pory skóry.

Ci uczestnicy konsekwentnie wygrywali z resztą grupy w odróżnianiu twarzy generowanych przez AI. Co ważne, ich wyniki pozostawały stabilne, gdy badacze powtarzali testy w innym czasie. To silna wskazówka, że mamy do czynienia z trwałą cechą, a nie czymś, co łatwo „wytrenować” kilkoma ćwiczeniami w aplikacji.

Nie wszyscy mamy równe szanse w starciu z dezinformacją

Z badań wyłania się niewygodny obraz. Narracja w debacie publicznej często brzmi: „uczmy ludzi rozpoznawać fake newsy, a problem zniknie”. W przypadku zaawansowanych obrazów generowanych przez AI to nie wystarczy. Nawet dobrze poinformowany, ostrożny użytkownik może dać się nabrać, jeśli jego układ wzrokowy nie wychwytuje subtelnych anomalii.

Naukowcy podkreślają, że w populacji istnieje całe spektrum osób – od tych, które prawie zawsze się mylą, po takich, którzy niemal bezbłędnie wyłapują fałszywe twarze. Większość z nas plasuje się gdzieś pośrodku, co oznacza realną podatność na zaawansowaną manipulację wizualną.

Typ użytkownika Szansa na wykrycie fałszywej twarzy Główna cecha
„Sokole oko” Wysoka Bardzo dobra rozpoznawalność obiektów
Przeciętny internauta Średnia Większość poprawnych odpowiedzi, ale dużo pomyłek
Osoba podatna na deepfake Niska Słabe wychwytywanie subtelnych różnic wizualnych

Takie wyniki zmieniają podejście do edukacji cyfrowej. Kursy „jak rozpoznać fałszywe zdjęcie” nadal mają sens, lecz nie zneutralizują problemu w całości. Część odbiorców, mimo dobrej woli i wiedzy teoretycznej, wciąż będzie mylić deepfake z rzeczywistością.

Umiejętność, która przydaje się też w medycynie i nauce

Ta sama zdolność ogólnego rozpoznawania obiektów wiąże się – jak wskazują inne badania cytowane przez zespół z Vanderbilt – z sukcesami w zadaniach znacznie wykraczających poza internetowe obrazki.

Osoby, które osiągają wysokie wyniki w testach wizualnych, lepiej radzą sobie między innymi z:

  • wypatrywaniem drobnych zmian na zdjęciach RTG płuc,
  • klasyfikacją komórek krwi jako zdrowe lub nowotworowe,
  • czytaniem skomplikowanych zapisów nutowych,
  • rozpoznawaniem płci na podstawie zdjęć dna oka.

Dla lekarzy, diagnostów obrazowych czy analityków danych medycznych to bardzo dobra wiadomość. Ich codzienna praca opiera się na dostrzeganiu niedostrzegalnego – mikroplamek, nieregularnych krawędzi, innych „szumów”, które dla niewprawnego oka nic nie znaczą. To zresztą tłumaczy, czemu część specjalistów szybciej oswaja współpracę z systemami AI, które wspierają ich w analizie badań obrazowych.

Zdolność rozpoznawania obiektów działa jak wspólny mianownik: pomaga zarówno w walce z deepfake’ami, jak i w diagnozowaniu chorób na podstawie subtelnych zmian w obrazach medycznych.

Czego uczą nas te wyniki o korzystaniu z AI na co dzień

Wnioski z badań stoją w sprzeczności z popularnym przekonaniem, że samo „oswojenie się” z technologią rozwiąże problem dezinformacji wizualnej. Korzystanie z czatbotów, generatorów obrazów czy aplikacji opartych o AI to za mało, aby wytrenować oko do poziomu, w którym bezbłędnie rozpoznamy sztuczną twarz.

To przesuwa ciężar odpowiedzialności z pojedynczego użytkownika na twórców platform i regulatorów. Skoro część ludzi nigdy nie będzie w stanie sprawnie wychwytywać fałszywych obrazów, potrzebne są inne zabezpieczenia:

  • systemy oznaczania treści generowanych przez AI bezpośrednio w plikach,
  • filtry i detektory deepfake’ów po stronie serwisów społecznościowych,
  • jasne standardy w mediach informacyjnych dotyczące weryfikacji zdjęć,
  • narzędzia „drugiej opinii”, które zwykły użytkownik może łatwo uruchomić przed udostępnieniem zdjęcia.

Nie chodzi więc tylko o to, by każdy z nas wpatrywał się w piksele. Bardziej realnym scenariuszem jest połączenie ludzkiej intuicji z automatycznymi systemami weryfikującymi wiarygodność obrazów w tle.

Jak zwykły użytkownik może się chronić przed fałszywymi obrazami

Badania nad AI Face Test pokazują, że część ograniczeń jest wrodzona, ale to nie znaczy, że jesteśmy całkowicie bezbronni. Z perspektywy codziennego korzystania z internetu przydają się proste nawyki:

  • sprawdzanie źródła zdjęcia – czy pochodzi z uznanego medium, czy z anonimowego konta,
  • korzystanie z wyszukiwania obrazem, by zobaczyć, gdzie jeszcze się pojawia,
  • zwracanie uwagi na kontekst: data, miejsce, zgodność z innymi doniesieniami,
  • zdrowy dystans do materiałów, które wzbudzają skrajne emocje – szok, gniew, euforię.

Same oczy mogą się pomylić, ale zestaw prostych pytań zadanych przed kliknięciem „udostępnij” często wystarczy, by powstrzymać się przed nieświadomym przekazywaniem fałszywki dalej.

W tle trwa też wyścig między twórcami generatorów obrazów a zespołami, które budują narzędzia do ich wykrywania. Im bardziej realistyczne staną się syntetyczne twarze, tym silniej będziemy polegać na automatycznych detektorach, znakach wodnych czy rozwiązaniach wbudowanych w aparaty i platformy społecznościowe. Zdolność jednego człowieka zawsze będzie miała ograniczenia – dlatego tak istotne staje się projektowanie całego ekosystemu informacji z myślą o epoce deepfake’ów.

Podsumowanie

Badania psychologów z Vanderbilt University wykazują, że większość ludzi nie potrafi skutecznie odróżnić prawdziwych twarzy od obrazów wygenerowanych przez AI. Okazuje się, że kluczowa jest wrodzona zdolność do rozpoznawania szczegółów wizualnych, a nie wiedza o technologii czy poziom inteligencji.

Prawdopodobnie można pominąć