Jak sztuczna inteligencja zniekształca kampanie wyborcze?
1 października 2024Młody mężczyzna w białej koszuli, z blond włosami, niebieskimi oczami i wydatnymi kośćmi policzkowymi stawia niebieskim atramentem krzyżyk na karcie do głosowania.
Inna scena z tego samego filmu pokazuje kobiety z zakrytymi twarzami na ulicy w centrum miasta. Ten wyborczy spot stworzony przy pomocy sztucznej inteligencji pojawił się na koncie X brandenburskiej AfD podczas kampanii wyborczej do Landtagu w Brandenburgii. Od tego czasu wygenerował 147 tysięcy odsłon. Inny przykład w podobnym stylu ma już ponad 870 tysięcy wyświetleń.
Takie widea grają na emocjach, przedstawiają groźne scenariusze przyszłości i oferują proste rozwiązania. Nie są jednak prawdziwe. Ich produkcja jest zazwyczaj szybka, łatwa i tania. W przeciwieństwie do niektórych innych filmów wykorzystujących sztuczną inteligencję, w tym wypadku można jednak łatwo rozpoznać, że nagrania zostały stworzone na komputerze.
W przeciwieństwie do deepfejków naprawdę doskonale imitujących głosy, gesty i ruchy, które skłaniają widza, by myślał, że to prawdziwi ludzie, takie filmy jak ten są wyraźnie rozpoznawalne jako wyprodukowane z pomocą komputera.
Takie „softfejki” (miękkie, łagodne oszustwa) są coraz częściej wykorzystywane w politycznych kampaniach wyborczych. Dla partii i polityków stają się najwyraźniej popularną praktyką, która ma sprawić, że oni sami i ich treści wydadzą się sympatyczniejsi, a ich przeciwnicy groźniejsi.
„Softfejki” w politycznej kampanii wyborczej
Szczególnie ważną rolę odgrywają one w superwyborczym roku 2024, kiedy to w wielu krajach świata wybory już się odbyły lub jeszcze się odbędą. Na przykład w kampanii przed tegorocznymi wyborami europejskimi ówczesny wiodący kandydat AfD Maximilian Krah umieszczał na swoim koncie na TikToku wiele grafik generowanych przez sztuczną inteligencję.
Że to są jej dzieła, można było łatwo rozpoznać po nienaturalnych, zbyt gładkich twarzach przedstawianych postaci. Przyjaźnie uśmiechnięty młodzieniec na jednym ze zdjęć, staruszek grzebiący w koszu na śmieci na innym. Żaden z tych obrazów nie był prawdziwą fotografią.
Również we Francji partie wykorzystywały przed wyborami do Parlamentu Europejskiego i potem do Zgromadzenia Narodowego proste narzędzia do generowania zdjęć, które najwyraźniej miały mieć szczególnie silny efekt emocjonalny.
Badanie, podczas którego przeanalizowano konta w mediach społecznościowych wszystkich partii we francuskiej kampanii wyborczej, wykazało, że z softfejków korzystają zwłaszcza populistyczne partie prawicowe. A przy tym ani jeden ich post nie został oznaczony jako wygenerowany przez sztuczną inteligencję. I to pomimo tego, że wszystkie partie zobowiązały się do przestrzegania kodeksu postępowania (Code of Conduct) obowiązującego w wyborach do Parlamentu Europejskiego.
Zgodnie z nim żadne treści wprowadzające w błąd nie powinny być tworzone, wykorzystywane ani rozpowszechniane. Szczególnie dotyczy to wymienionych tam wprost zdjęć i filmów wytwarzanych przez sztuczną inteligencję. Niemniej jednak we Francji takie partie jak Patrioci (Les Patriotes, LP), Zjednoczenie Narodowe (Rassemblement National, RN) i Rekonkwista (Reconquête, R!) szeroko korzystały z tego rodzaju produkcji bez ich wyraźnego oznaczania.
Spreparowane zdjęcia są także wykorzystywane w kampanii wyborczej w Stanach Zjednoczonych. Na przykład Donald Trump opublikował zdjęcie kobiety rzekomo przedstawiające Kamalę Harris występującą przed umundurowanym tłumem. Hala na obrazie wyprodukowanym przez sztuczną inteligencję jest usiana komunistyczną symboliką: sierpem i młotem i czerwonymi flagami. Takie zdjęcia są wykorzystywane przede wszystkim do oskarżania rywalki Trumpa o ideologię komunistyczną. Dla wielu ludzi w USA jest to argument zabójczy.
Problem z takimi materiałami wykracza poza dezinformację i rozpowszechnianie fejków. Tworzą one alternatywne rzeczywistości. Tworzą świat, w którym sztuczne wersje rzeczywistości wydają się bardziej realne niż sama rzeczywistość. Parafrazując motto Pabla Picassa: Wszystko, co możesz sobie wyobrazić, jest prawdziwe.
Jak to wpływa na naszą percepcję?
Ale czy przedstawiające alternatywną rzeczywistość filmy i zdjęcia, które ewidentnie zostały wytworzone przez sztuczną inteligencję, już ze względu na samą ich mnogość odbieramy jako autentyczne?
Naukowcy zajmowali się badaniem możliwych oddziaływań sztucznie stworzonych postaci przypominających ludzi na widzów już w latach 70. Japoński inżynier robotyki Masahiro Mori ukuł nawet termin „Dolina niesamowitości” (Uncanny-Valley) na opisanie efektu sprawiającego, że robot wydaje się obserwatorowi tym bardziej niesamowity, im bardziej wygląda jak człowiek.
– Istnieje rozdźwięk między tym, co myślimy, a tym, co przed sobą widzimy – mówi w rozmowie z DW Nicholas David Bowman, redaktor naczelny Journal of Media Psychology i profesor nadzwyczajny w Newhouse School of Public Communications na Syracuse University w USA. – Czujemy dyskomfort, ponieważ wiemy, że coś jest nie tak, a to sprawia, że jest to dla nas niewygodne, ponieważ nie możemy się z tym pogodzić – wyjaśnia.
Akceptacja maleje zatem tym bardziej, im bardziej te sztuczne postacie przypominają ludzi. Ale co się stanie, gdy obrazy stworzone przez sztuczną inteligencję pokonają Dolinę Niesamowitości i przestaną nas przerażać? – Gdy efekt Doliny Niesamowitości będzie już za nami, nie będziemy nawet zauważać różnicy między tym, co prawdziwe, a co nieprawdziwe – twierdzi Bowman.
Tak daleko jeszcze nie jesteśmy. – Ludzie mają intuicję, gdy oglądają jakiś film. To nasz najlepszy detektor, by określić, czy coś zostało wyprodukowane przez sztuczną inteligencję, czy jest rzeczywiste – uważa naukowiec.
Problematyczne staje się to jego zdaniem jednak wtedy, gdy ludzie ignorują swoją intuicję, bo chcą wierzyć fejkom. – Potrafią ją wyłączyć. Jeśli są stronniczy, skrajnie lewicowi albo skrajnie prawicowi, i gdy widzą materiał, który nie jest prawdziwy, nie przejmują się, ponieważ zgadzają się z tym, co w nim jest – kontynuuje David Bowman. Dlatego ludzie jego zdaniem często nawet nie próbują tego rozpoznawać, ponieważ jest to już zgodne z ich przekonaniami i potwierdza to, co chcieliby zobaczyć.
Ten efekt psychologiczny można jedynie pośrednio wiązać z postępem technologicznym. Człowiek sam bowiem decyduje, jak reagować na takie widoki i jak sobie z nimi radzić.
Ta decyzja nie jest zaś bynajmniej statyczna. Punkty odniesienia stale się zmieniają. – Podczas gdy film „Ekspres polarny” z 2004 roku (z Tomem Hanksem w roli głównej) był postrzegany jako niesamowity i przerażający, ponieważ pojawiają się tam wygenerowane postacie, dziś jest to normalna „bożonarodzeniowa tradycja” – mówi Bowman.
Sztuczna inteligencja zagrożeniem dla krajobrazu informacyjnego
W szeregu ubiegłorocznych kampanii wyborczych coraz częściej wykorzystywano fałszywe treści, takie jak deep- czy softfejki. Zaobserwował to także Philip Howard, prezes i współzałożyciel Międzynarodowego Panelu do spraw Środowiska Informacyjnego (International Panel on the Information Environment, IPIE), organizacji współpracującej z naukowcami z całego świata w celu prowadzenia badań nad rozwojem krajobrazu informacyjnego.
W jej najnowszym badaniu wzięło udział ponad 400 ekspertów z ponad 60 krajów. Dwóch na trzech ekspertów (67 procent) jest zaniepokojonych wzrastającym wpływem technologii sztucznej inteligencji w ciągu najbliższych pięciu lat. Za wielkie zagrożenie dla krajobrazu informacyjnego uważają oni właścicieli platform mediów społecznościowych, rządy i polityków.
– Myślę, że przekroczyliśmy już punkt samoregulacji branży. Tak, firmy zajmujące się sztuczną inteligencją kontrolują same siebie. Same oceniają swoje prace domowe – mówi Howard w rozmowie z DW.
Jego zdaniem taka kontrola jednak nie wystarczy, ponieważ nie jest niezależna. – Jeśli więc uda nam się przekonać regulatorów do prowadzenia niezależnych kontroli, podczas których niezależni śledczy, dziennikarze i naukowcy będą mogli zajrzeć do ich wnętrza, to, jak myślę, uda nam się odwrócić tę sytuację.
W tym roku nastąpił prawdziwy boom w wykorzystaniu treści tworzonych przez sztuczną inteligencję na potrzeby kampanii wyborczych. Eksperci zakładają, że w przyszłości takich materiałów będzie jeszcze więcej. Ważne przy tym może być nie tylko to, czy chodzi o fejki, ale i jak będą reagować na nie regulatorzy. A być może jeszcze ważniejsze będzie to, jak będą chcieli z tym postępować sami użytkownicy.