Na początku września Facebook ogłosił nowy program, mający na celu walkę z dezinformacją w sieci. Tym razem skupiono się na problemie deepfake, czyli realistycznie zmontowanych przez sztuczną inteligencję materiałów wideo, w których na obraz oryginalny, na przykład na twarz specjalnie zatrudnionego i nagranego autora można nałożyć wizerunek innej osoby, chociażby polityka. Dodatkowo oprogramowanie jest zdolne dostosowywać głos. Słynnym przykładem jest filmik przedstawiający Baracka Obamę, wygłaszającego co najmniej absurdalne tezy. Ukazał się on w 2018 roku i wywołał w sieci niemałe poruszenie. W rzeczywistości nagrał go Jordan Peele, amerykański komik, właśnie by ukazać zagrożenia płynące z rozwoju technologii. Nieco nowszym przykładem jest scena z filmu „Lśnienie” Stanleya Kubricka, w której Jack Nicholson został podmieniony na Jima Carreya.

W celu lepszego zbadania zjawiska deepfake, co umożliwia rozwój technologii zbierania i przechowywania danych oraz różnego typu analizy porównawcze, gigant społecznościowy połączył siły między innymi z Microsoftem, a także ośrodkami akademickimi – w tym MIT, Cornell University czy Uniwersytetem Oksfordzkim. Razem stworzyli oni Deepfake Detection Challenge (DFDC), czyli Wyzwanie Identyfikacji Deepfake. W ramach wyzwania ufundowane zostaną granty i nagrody. Prowadzony będzie także ranking uczestników. Nadzór nad konkursem ma sprawować Partnerstwo ds. Sztucznej Inteligencji (Partnership on AI), a konkretnie jego Komitet Sterujący ds. SI i Integralności Mediów, w którego skład wchodzą przedstawiciele Facebooka, Microsoftu, WITNESS i innych firm, organizacji pozarządowych i środowisk akademickich.

Facebook podkreśla szczególne znaczenie zebrania szerokiego wachlarza danych od świadomie zgadzających się na ich wykorzystanie uczestników. Dodatkowo prawa wykorzystania ich wizerunku powinny być maksymalnie rozszerzone, by bez przeszkód można było go poddawać działaniu sztucznej inteligencji. Facebook gwarantuje, że nie wykorzysta danych, które znajdują się w jego posiadaniu, a zostały pozyskane dzięki sieciom społecznościowym. Zamiast tego planuje poprzez podmioty zewnętrzne zatrudnić aktorów, którzy zgodzą się na udział w projekcie kreowania bazy danych, mającej posłużyć do stworzenia skutecznego oprogramowania pozwalającego na identyfikację deepfake’ów.

W październiku zaplanowana jest sesja robocza podczas Międzynarodowej Konferencji Widzenia Komputerowego (International Conference on Computer Vision – ICCV), na której przetestowane zostaną parametry wyzwania i baza danych. Sam konkurs ruszy w grudniu podczas Konferencji Neuronowych Systemów Przetwarzania Informacji (Conference on Neural Information Processing Systems – NeurIPS). Wtedy też zostanie udostępniona pełna baza danych. Co ciekawe, Facebook również weźmie udział we własnym konkursie, jednak bez możliwości zdobycia nagród pieniężnych. Program potrwa do końca marca 2020 roku.

Baza danych nie będzie jednak otwarta dla każdego. Ze względu na ryzyko wykorzystania jej w niewłaściwych celach, dostęp zostanie ograniczony tylko do uczestników, będących zweryfikowanymi i zatwierdzonymi wcześniej badaczami.

Projekt uwzględnia istotną rolę wsparcia środowisk akademickich. Na stronie Facebooka poświęconej DFDC przytoczone są opinie przedstawicieli uczelni biorących udział w projekcie. Główną ideę przyświecającą wyzwaniu trafnie podsumowuje Phillip Isola z MIT: “Technologia manipulacji obrazami postępuje szybciej niż nasza umiejętność odróżnienia tego, co prawdziwe, od fałszywek. Problem jest na tyle duży, że nie zostanie rozwiązany przez jedną osobę. Otwarte konkursy jak ten pobudzają innowację poprzez skupienie kolektywnej siły umysłów świata na pozornie niemożliwym celu”.

PB

Źródło: ai.facebook.com