Czy organizacje mogą wykorzystywać modele językowe sztucznej inteligencji, takie jak ChatGPT, aby skłonić wyborców do określonych zachowań?
Senator Josh Hawley zadał to pytanie dyrektorowi generalnemu OpenAI, Samowi Altmanowi, podczas przesłuchania w Senacie Stanów Zjednoczonych 16 maja 2023 r. w sprawie sztucznej inteligencji. Altman odpowiedział, że rzeczywiście obawia się, że niektórzy ludzie mogą używać modeli językowych do manipulowania, przekonywania i angażowania się w interakcje jeden na jednego z wyborcami.
Altman nie rozwinął szczegółów, ale mógł mieć na myśli coś w rodzaju następującego scenariusza – Wyobraź sobie, że wkrótce politolodzy opracowują maszynę o nazwie Clogger – kampanię polityczną zamkniętą czarnej skrzynce, czyli rozgrywaną przez AI. Clogger nieustannie dąży do jednego celu: zmaksymalizować szanse, że jego kandydat – klient, który kupuje usługi Clogger Inc. – zwycięży w wyborach.
Podczas gdy platformy takie jak Facebook, Twitter i YouTube używają form sztucznej inteligencji, aby skłonić użytkowników do spędzania większej ilości czasu na ich witrynach, sztuczna inteligencja Cloggera miałaby inny cel: zmianę zachowań wyborczych ludzi.
Jak działałby Clogger
Jako politolog i prawnik , którzy badają skrzyżowanie technologii i demokracji jestem przekonany, że coś takiego jak Clogger mogłoby wykorzystać automatyzację do radykalnego zwiększenia skali i potencjalnej skuteczności technik manipulacji zachowaniem i mikrotargetowania , które kampanie polityczne wykorzystywały od początku XXI wieku . Tak jak teraz reklamodawcy wykorzystują Twoją historię przeglądania i mediów społecznościowych do indywidualnego kierowania reklam komercyjnych i politycznych, Clogger dobrałby się do Ciebie – i milionów innych wyborców – indywidualnie.
Dałoby to trzy postępy w porównaniu z obecnymi najnowocześniejszymi algorytmami manipulacji zachowaniem. Po pierwsze, jego model językowy generowałby wiadomości — teksty, media społecznościowe i e-maile, być może zawierające obrazy i filmy — dostosowane do Ciebie osobiście. Podczas gdy reklamodawcy strategicznie umieszczają stosunkowo niewielką liczbę reklam, modele językowe, takie jak ChatGPT, mogą wygenerować niezliczone unikalne wiadomości dla Ciebie osobiście – i miliony dla innych – w trakcie kampanii.
Po drugie, Clogger użyłby techniki zwanej uczeniem się przez wzmacnianie , aby wygenerować kolejne wiadomości, które z coraz większym prawdopodobieństwem zmienią Twój wyborczy głos. Uczenie się przez wzmacnianie to uczenie maszynowe, metoda prób i błędów, w której komputer podejmuje działania i otrzymuje informacje zwrotne o tym, które działają lepiej, aby dowiedzieć się, jak osiągnąć cel. Maszyny, które potrafią grać w Go, Chess i wiele gier wideo lepiej niż jakikolwiek człowiek, wykorzystały uczenie się przez wzmacnianie.
Po trzecie, w trakcie kampanii wiadomości Cloggera mogą ewoluować, aby uwzględnić twoje odpowiedzi na wcześniejsze wiadomości maszyny i to, czego dowiedziała się o zmianie zdania innych. Clogger byłby w stanie prowadzić dynamiczne „rozmowy” z Tobą – i milionami innych osób – przez dłuższy czas. Wiadomości Cloggera byłyby podobne do reklam, które śledzą Cię w różnych witrynach internetowych i mediach społecznościowych.
Natura sztucznej inteligencji
Warto zwrócić uwagę na jeszcze trzy funkcje – lub błędy.
Po pierwsze, wiadomości wysyłane przez Cloggera mogą, ale nie muszą, mieć treść polityczną. Jedynym celem maszyny jest maksymalizacja udziału głosów i prawdopodobnie opracowałaby strategie osiągnięcia tego celu, o których nie pomyślałby żaden ludzki działacz.
Jedną z możliwości jest wysyłanie potencjalnym wyborcom opozycji informacji o niepolitycznych pasjach kandydata. Inną możliwością jest wysyłanie odpychających wiadomości na temat przeciwnika ale tak, by zbiegły się z czasem publikacji konkurenta. Można też manipulować socmediowym grupom, w których są twoi znajomi, ale tak by osiągnąć wrażenie, że grupy te popierają kandydata, na rzecz którego pracuje Clogger.
Po drugie, Clogger nie ma szacunku dla prawdy. Rzeczywiście, nie ma możliwości poznania, co jest prawdą, a co fałszem. Modelowe „halucynacje” językowe nie stanowią problemu dla tej maszyny, ponieważ jej celem jest zmiana Twojego głosu, a nie podanie dokładnych informacji.
Po trzecie, ponieważ jest to sztuczna inteligencja typu czarnej skrzynki, ludzie nie mieliby możliwości dowiedzieć się, jakich strategii używa.
Gdyby republikańska kampania prezydencka mogła wykorzystać Cloggera w 2024 r., Demokratów nie mieliby wyjścia, i musieliby kupić własną maszynę. Nazwijmy ją to Doggerem. Gdyby menedżerowie kampanii myśleli, że te maszyny są skuteczne, prezydencki konkurs mógłby równie dobrze sprowadzić się do Clogger kontra Dogger, a zwycięzcą byłby klient skuteczniejszej maszyny.
Politolodzy i eksperci mieliby wiele do powiedzenia na temat tego, dlaczego jedna lub druga sztuczna inteligencja zwyciężyła, ale prawdopodobnie nikt tak naprawdę nie znałby przyczyn. Prezydent zostałby wybrany nie dlatego, że jego propozycje polityczne lub idee polityczne przekonały więcej Amerykanów, ale dlatego, że jego sztab po prostu poszedł na bazar i kupił najlepszą maszynkę do kupowania głosów. Treści, które wygrałyby pochodziłyby od sztucznej inteligencji skupionej wyłącznie na zwycięstwie, bez własnych idei politycznych, a nie od kandydatów lub partii.
Można by uniknąć manipulacji wyborami AI, gdyby wszyscy kandydaci, kampanie i konsultanci zrzekli się korzystania z takiej politycznej AI, ale to raczej mało prawdopodobne. Gdyby opracowano politycznie skuteczne czarne skrzynki, pokusa ich wykorzystania byłaby niemal nie do odparcia. Rzeczywiście, konsultanci polityczni mogą równie dobrze postrzegać wykorzystanie tych narzędzi jako wymagane przez ich odpowiedzialność zawodową, aby pomóc swoim kandydatom w zwycięstwie. A kiedy jeden z kandydatów użyje tak skutecznego narzędzia, trudno oczekiwać, że przeciwnicy stawią opór przez jednostronne rozbrojenie.
Ulepszona ochrona prywatności pomogłaby . Clogger byłby zależny od dostępu do ogromnych ilości danych osobowych w celu dotarcia do poszczególnych osób, tworzenia wiadomości dostosowanych do ich przekonania lub manipulowania nimi oraz śledzenia i ponownego kierowania ich w trakcie kampanii. Każda informacja, której firmy lub decydenci zaprzeczają tej maszynie, sprawiłaby, że byłaby ona mniej skuteczna.
Innym rozwiązaniem są komisje wyborcze. Mogliby spróbować zakazać lub surowo uregulować te maszyny. Toczy się zażarta debata na temat tego, czy takie „replikujące” wypowiedzi , nawet jeśli mają charakter polityczny, można regulować. Skrajna tradycja wolności słowa w Stanach Zjednoczonych sprawia, że wielu czołowych naukowców twierdzi, że nie może .
Ale nie ma powodu, aby automatycznie rozszerzać ochronę Pierwszej Poprawki na produkt tych maszyn. Naród może zdecydować się na przyznanie maszynom praw, ale powinna to być decyzja oparta na dzisiejszych wyzwaniach, a nie na błędnym założeniu , że poglądy Jamesa Madisona z 1789 r. miały odnosić się do sztucznej inteligencji.
Regulatorzy Unii Europejskiej idą w tym kierunku. Decydenci zmienili przygotowany przez Parlament Europejski projekt ustawy o sztucznej inteligencji, aby określić „systemy sztucznej inteligencji mające na celu wpływanie na wyborców w kampaniach” jako „wysokiego ryzyka” i podlegające kontroli regulacyjnej.
Jednym z konstytucyjnie bezpieczniejszych, choć mniejszych kroków, przyjętym już częściowo przez europejskie organy regulacyjne ds. internetu i w Kalifornii , jest zakazanie botom podszywania się pod ludzi. Na przykład przepisy mogą wymagać, aby komunikaty kampanii zawierały zastrzeżenia, jeśli zawarte w nich treści są generowane przez maszyny, a nie przez ludzi.
Byłoby to podobne do wymagań dotyczących wyłączenia odpowiedzialności reklamowej – „Opłacone przez Sam Jones for Congress Committee” – ale zmodyfikowane, aby odzwierciedlić jego pochodzenie AI: „Ta reklama wygenerowana przez AI została opłacona przez Sam Jones for Congress Committee”. Mocniejsza wersja może wymagać: „Ta wiadomość wygenerowana przez sztuczną inteligencję jest wysyłana do Ciebie przez Sam Jones for Congress Committee, ponieważ Clogger przewidział, że zwiększy to Twoje szanse na głosowanie na Sama Jonesa o 0,0002%”. Uważamy, że przynajmniej wyborcy zasługują na to, aby wiedzieć, kiedy mówi do nich bot, i powinni również wiedzieć, dlaczego.
Możliwość istnienia systemu takiego jak Clogger pokazuje, że droga do zbiorowego osłabienia ludzkości może nie wymagać jakiejś nadludzkiej sztucznej ogólnej inteligencji . Może to po prostu wymagać nadgorliwych działaczy i konsultantów, którzy dysponują potężnymi nowymi narzędziami, które mogą skutecznie naciskać miliony ludzi.