Fałszywe Wybory. Czy Technologia AI Przekreśli Demokrację?

Wstęp

Ostatnio jesteśmy świadkami narastającej fali pozwów sądowych związanych z użyciem sztucznej inteligencji (AI) i technologii deepfake, co wskazuje na rosnące zainteresowanie oraz obawy dotyczące tych technologii. W większości przypadków pozwów dotychczas dotyczyły one fałszywych zdjęć, jednak obserwujemy też znaczący wzrost problemów związanych z manipulacją plikami audio, co podkreśla postępy w tej dziedzinie. Przykładem takiego rozwoju jest ElevenLabs, platforma, która za pomocą zaawansowanych algorytmów AI pozwala na generowanie realistycznie brzmiących głosów na podstawie tekstów, otwierając nowe możliwości, ale i potencjalne pola do nadużyć. W obszarze wideo, znaczący potencjał widać w narzędziu Sora od OpenAI, które może zrewolucjonizować tworzenie fałszywych treści wideo, czyniąc je bardziej przekonującymi i trudniejszymi do odróżnienia od prawdziwych. Nie powinno być dla nikogo zaskoczeniem, że z tej technologii chcą też skorzystać nieuczciwi politycy. Czy zagrożenie jest również realne w Polsce?

AI w polityce

Dyskusja na temat manipulacji mediami w sieciach społecznościowych cyklicznie powraca z każdymi wyborami, przybierając nowe formy i konteksty. Wybory prezydenckie w Stanach Zjednoczonych w 2016 roku zostały zdominowane przez rosyjskie działania dezinformacyjne na Facebooku, co stanowiło precedens dla późniejszych debat na temat wpływu mediów społecznościowych na demokrację. W 2020 roku, kontrowersje skupiały się wokół historii związanej z laptopem Huntera Bidena i jego omówieniem na Twitterze, co zaostrzyło dyskusję na temat roli platform w moderowaniu treści. Kulminacją tych napięć stało się zablokowanie konta Donalda Trumpa przez główne serwisy społecznościowe po zamieszkach z 6 stycznia, co podkreśliło narastające wyzwania i dylematy związane z regulacją przestrzeni cyfrowej.

Brudna taktyka polityczna zyskała nowy wymiar. Ostatnio w New Hampshire odnotowano incydent z fałszywym automatycznym połączeniem, przypisywanym Joe Bidenowi. Chociaż kampanie polityczne od dawna operują na granicy prawdy, to co wyróżnia ten przypadek, to twierdzenie magika z Nowego Orleanu, który zaledwie w 20 minut i za symboliczny dolar stworzył fałszywy zapis dźwiękowy. To świadczy o alarmującej łatwości i skalowalności, z jaką generatywna sztuczna inteligencja może być wykorzystywana do rozpowszechniania nieprawdy, umożliwiając kłamstwom rozprzestrzenianie się szybciej i częściej niż kiedykolwiek. W obliczu wyborów w 2024 roku, możemy spodziewać się, że pole dezinformacji nabierze nowych, subtelniejszych odcieni. Jednakże, każde działanie w tej sferze nieuchronnie napotyka na konieczność zmierzenia się z wolnością słowa, gwarantowaną przez Pierwszą Poprawkę.

Sprawa Polski

Ta zdolność do tworzenia wiarygodnych manipulacji może wkrótce stać się znaczącym problemem również dla polskiej sceny politycznej. Nieuczciwi politycy, zarówno z kraju, jak i ze strony zagranicznych państw, mogą wykorzystać AI do generowania treści mających na celu wpłynięcie na wyniki wyborów na korzyść kandydatów, którzy są im sprzyjający.

Otwiera to zupełnie nowy rozdział w historii walki z dezinformacją, gdzie tradycyjne metody weryfikacji informacji mogą okazać się niewystarczające. Szary człowiek, codzienny odbiorca informacji, staje się coraz bardziej bezbronny w obliczu zalewu manipulowanych treści, które z trudem da się odróżnić od autentycznych. To stawia pod znakiem zapytania nie tylko wiarygodność przekazywanych informacji, ale również podstawy funkcjonowania demokracji, opartej na świadomym i wolnym wyborze.

Podsumowanie

Z każdym miesiącem, AI staje się coraz bardziej zaawansowana, co sprawia, że rozróżnienie między prawdziwymi a fałszywymi nagraniami jest coraz trudniejsze. W kontekście tak dynamicznego rozwoju technologicznego, pojawia się pytanie o przyszłość wolności słowa. Jak zatem zabezpieczyć ten fundamentalny filar demokracji w obliczu technologii, która umożliwia łatwe i przekonujące manipulowanie rzeczywistością?

Wyzwanie to wymaga nie tylko zwiększenia świadomości społecznej na temat możliwości i zagrożeń płynących z AI i deepfake, ale również opracowania nowych strategii prawnych i technologicznych, które będą w stanie skutecznie przeciwdziałać dezinformacji, nie ograniczając przy tym niezbędnej wolności słowa. Rozwiązanie tego dylematu będzie kluczowe dla ochrony integralności przyszłych procesów wyborczych i zachowania zaufania do publicznego dyskursu w Polsce.

Źródła:

https://edition.cnn.com/2024/01/24/politics/deepfake-politician-biden-what-matters/index.html

https://www.bloomberg.com/news/articles/2024-01-26/ai-startup-elevenlabs-bans-account-blamed-for-biden-audio-deepfake

https://nj1015.com/nj-ai-fake-nude-photos-westfield-teen-lawsuit/

https://theconversation.com/taylor-swift-deepfakes-a-legal-case-from-the-singer-could-help-other-victims-of-ai-pornography-222113

https://www.cbc.ca/news/canada/deepfake-ai-scam-ads-1.7104225

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *