Microsoft i OpenAI przekazują 2 miliony dolarów na walkę z przedwyborczymi deepfake’ami

Microsoft i OpenAI przekazują 2 miliony dolarów na walkę z przedwyborczymi deepfake’ami

Teoretycznie, w tym roku aż 2 miliardy ludzi na całym świecie będą uczestniczyć w różnych wyborach. Jednak wraz z ogromnym postępem generatywnej sztucznej inteligencji pojawia się coraz większy problem z deepfake'ami. Microsoft i OpenAI podejmują wysiłki w walce z tym zjawiskiem, ale czy kwota 2 milionów dolarów wystarczy?

Deepfake'i, czyli fałszywe filmy, w których często występują gwiazdy, robią lub mówią rzeczy, których faktycznie nie robiły lub nie mówiły, nie są niczym nowym. Jednak wraz z postępem generatywnych systemów AI, takich jak DALL-E od OpenAI i Sora od Microsoftu, rośnie ryzyko ich nadużycia. Dotyczy to zwłaszcza wyborów, w których bierze udział aż 2 miliardy wyborców na całym świecie. Indyjska Komisja Wyborcza już ostrzegła polityków przed nieodpowiednim wykorzystaniem tego narzędzia oraz innych form dezinformacji. Wydaje się wątpliwe, czy taka walka przyniesie sukces.

Amerykańskie organizacje podejmują walkę z materiałami generowanymi przez tzw. sztuczną inteligencję, które mogą być szczególnie szkodliwe w okresie wyborów.

Jednakże firmy takie jak Microsoft i OpenAI, twórcy potężnych systemów generatywnej sztucznej inteligencji, podjęły działania przeciwko nadużyciom. Postanowiły przekazać 2 miliony dolarów na rzecz Funduszu Odporności Społecznej, którego celem jest poprawa edukacji wyborców i społeczności narażonych na wpływ deepfake'ów. Jednym z projektów wspieranych przez ten fundusz jest Older Adults Technology Services (OATS) firmy AARP, który ma na celu edukację Amerykanów powyżej 50. roku życia w dziedzinie sztucznej inteligencji i innych technologii. Dzięki temu będą oni lepiej przygotowani do rozpoznawania pułapek generatywnej sztucznej inteligencji.

Wśród wspieranych inicjatyw znajduje się także Koalicja na rzecz Pochodzenia i Autentyczności Treści (C2PA), której celem jest potwierdzanie autentyczności treści cyfrowych poprzez wprowadzanie specjalnych znaków wodnych, które już są wykorzystywane w niektórych urządzeniach cyfrowych do potwierdzania historii obrazu. W praktyce oznacza to, że nie można jednoznacznie udowodnić, że dany materiał jest fałszywy, ale można udowodnić, że jest autentyczny (nie jest wygenerowany). Dodatkowo OpenAI przeprowadza testy detektora obrazów generowanych przez własny system DALL-E 3. Według wstępnych testów detektor ten był w stanie poprawnie zidentyfikować 98% obrazów wygenerowanych przez tę sztuczną inteligencję, popełniając błędy jedynie w przypadku 0,5% obrazów. Jednak wykrywanie generowanych przez sztuczną inteligencję obrazów nie sprawdza się tak dobrze w przypadku innych modeli, gdzie skuteczność identyfikacji obrazów wynosi jedynie 5-10%.

Inne wspierane inicjatywy obejmują Międzynarodowy Instytut Demokracji i Pomocy Wyborczej (International IDEA), który będzie prowadził edukację na temat sztucznej inteligencji na całym świecie, oraz Partnerstwo na rzecz Sztucznej Inteligencji (PAI), które podejmie próbę ustalenia "najlepszych praktyk" w zakresie odpowiedzialnego rozwoju systemów sztucznej inteligencji. Pytanie jednak brzmi, czy te działania będą wystarczające?

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Microsoft i OpenAI przekazują 2 miliony dolarów na walkę z przedwyborczymi deepfake’ami

 0