Social Proof

Źródło deepfake'a Joe Bidena ujawnione po ingerencji w wybory

Speechify to najlepszy generator głosów AI. Twórz nagrania lektorskie o jakości ludzkiej w czasie rzeczywistym. Narracja tekstów, filmów, materiałów wyjaśniających – cokolwiek potrzebujesz – w dowolnym stylu.

Szukasz naszego Czytnika Tekstu na Mowę?

Polecane w

forbes logocbs logotime magazine logonew york times logowall street logo

Posłuchaj tego artykułu z Speechify!
Speechify

Niektórzy wyborcy otrzymali deepfake'owy robocall z prezydentem Bidenem. Dowiedz się, kto stworzył deepfake'a Joe Bidena i jakie są konsekwencje nieetycznego wykorzystania AI.

Źródło deepfake'a Joe Bidena ujawnione po ingerencji w wybory

W ostatnich godzinach przed prawyborami w New Hampshire doszło do podstępnego spisku, wykorzystującego technologię sztucznej inteligencji do naśladowania głosu prezydenta Joe Bidena w robocallu. Ta bezprecedensowa próba ingerencji w wybory ujawniła związek między AI, deepfake'ami a dezinformacją, budząc obawy o potencjalne konsekwencje dla procesów demokratycznych. Przyjrzyjmy się bliżej oszustwu związanemu z deepfake'owym robocallem od prezydenta USA Joe Bidena, w tym kto był zaangażowany.

Na czym polega oszustwo z deepfake'em Joe Bidena?

W poniedziałek, 22 stycznia 2023 roku, biuro prokuratora generalnego New Hampshire ogłosiło, że bada doniesienia o rzekomym robocallu, który wykorzystał sztuczną inteligencję do naśladowania głosu prezydenta Joe Bidena i zniechęcania wyborców w stanie do udziału w głosowaniu.

Celem tego oszustwa było zniechęcenie wyborców do udziału w prawyborach stanowych, fałszywie twierdząc, że głosowanie w prawyborach wpłynie na wybory powszechne w listopadzie. Głos AI naśladujący Bidena zachęcał wyborców do "oszczędzania" swoich głosów na nadchodzące wybory federalne, twierdząc, że głosowanie w prawyborach przyniesie korzyści Republikanom i ułatwi reelekcję Donalda Trumpa.

Identyfikacja dzwoniącego w deepfake'u Joe Bidena

Identyfikator dzwoniącego w fałszywym robocallu Bidena wyglądał, jakby został wysłany od Kathy Sullivan, byłej przewodniczącej stanowej Partii Demokratycznej, która pomaga prowadzić Granite for America, super-PAC, który prowadzi kampanię na rzecz wyborców, aby wpisywali Bidena, aby pokazać swoje poparcie dla prezydenta. Jednak nie prowadził on kampanii w New Hampshire i nie miał być na karcie do głosowania, ponieważ był na czołowej pozycji w prawyborach prezydenckich Demokratów.

„Ten telefon łączy się z moim osobistym numerem komórkowym bez mojej zgody,” powiedziała Sullivan w oświadczeniu. „To jawna ingerencja w wybory i wyraźna próba nękania mnie i innych wyborców z New Hampshire, którzy planują wpisać Joe Bidena we wtorek.”

Nagranie oszustwa z deepfake'em Joe Bidena

W fałszywym nagraniu robocallu uzyskanym przez NBC, można usłyszeć głos, który brzmi niepokojąco podobnie do Bidena, mówiący jego ulubione powiedzenie, „Co za bzdury.” Wiadomość kontynuuje, stwierdzając, „ważne jest, abyś oszczędził swój głos na wybory listopadowe, a „głosowanie w ten wtorek tylko umożliwia Republikanom ich dążenie do ponownego wyboru Donalda Trumpa. Twój głos ma znaczenie w listopadzie, nie w ten wtorek.”

Po jego wydaniu, sekretarz prasowy Białego Domu Karine Jean-Pierre poinformowała opinię publiczną, że wiadomość została wygenerowana przez AI w celu szerzenia dezinformacji i nie pochodziła z kampanii Bidena.

W oświadczeniu, menedżerka kampanii Bidena, Julie Chavez Rodriguez, powiedziała, że kampania „aktywnie omawia dodatkowe działania, które należy podjąć natychmiast.”

Co zrobić, jeśli otrzymałeś robocall Joe Bidena?

Nagranie wydawało się być nielegalną próbą szerzenia dezinformacji i zakłócania głosowania. Chociaż nie jest jasne, ilu wyborców otrzymało ten telefon, co najmniej tuzin zgłosiło to. Prokurator generalny John Formella wyjaśnił, że każdy, kto otrzymał taki telefon, „powinien całkowicie zignorować treść tej wiadomości.”

Źródło deepfake'owego robocallu Joe Bidena ujawnione

Według Bloomberg, firma zajmująca się wykrywaniem oszustw głosowych Pindrop Security Inc. odkryła, że deepfake'owy robocall Bidena nie został wykonany przez kampanię Bidena, lecz przez oszusta korzystającego z ElevenLabs, startupu AI oferującego możliwości klonowania głosu.

Chociaż oświadczenie o bezpieczeństwie ElevenLabs pozwala na klonowanie głosu „dla niektórych celów niekomercyjnych, jeśli nie wpływasz na prywatność lub interesy ekonomiczne osoby,” w tym „prywatne studia, badania niekomercyjne, edukację, karykaturę, parodię, satyrę, wypowiedzi artystyczne i polityczne przyczyniające się do debat publicznych, cytaty,” a także „krytykę i recenzję,” ElevenLabs zablokowało użytkownika, który stworzył deepfake'owy robocall Bidena.

"Jesteśmy zaangażowani w zapobieganie niewłaściwemu wykorzystaniu narzędzi audio AI i traktujemy wszelkie przypadki nadużyć niezwykle poważnie," powiedziało ElevenLabs Bloombergowi.

Deepfake vs. Generator głosu AI vs. Klonowanie głosu

W miarę jak generowanie głosów przez AI staje się coraz bardziej popularne, ważne jest zrozumienie terminów deepfake, generator głosu AI oraz klonowanie głosu, a także różnicy między ich etycznym i nieetycznym użyciem.

Deepfake

Deepfake odnosi się do wykorzystania sztucznej inteligencji i technik uczenia maszynowego do tworzenia lub manipulowania treściami audio i wideo, często zastępując czyjś wizerunek inną osobą w realistyczny sposób.

  • Etyczne użycie deepfake: Technologia deepfake może być etycznie wykorzystywana w rozrywce, wyrażaniu artystycznym i edukacji, gdzie celem nie jest oszukiwanie ani szkodzenie innym.
  • Nieetyczne użycie deepfake: Gdy technologia deepfake jest wykorzystywana do tworzenia wprowadzających w błąd treści i fałszywych narracji lub do podszywania się pod osoby w celach złośliwych (takich jak rozpowszechnianie dezinformacji lub tworzenie fałszywych wiadomości), rodzi to poważne obawy etyczne.

Generator głosu AI

Generatory głosu AI wykorzystują algorytmy uczenia maszynowego do syntezowania głosów AI przypominających ludzkie. Często są trenowane na dużych zbiorach danych, aby naśladować ludzkie głosy i tony.

  • Etyczne użycie generatora głosu AI: Generatory głosu AI mogą być etycznie wykorzystywane do różnych celów, w tym do zwiększenia dostępności dla osób z zaburzeniami mowy, nauki języków, rozrywki czy nagrań lektorskich.
  • Nieetyczne użycie generatora głosu AI: Nadużywanie generowania głosu AI do tworzenia fałszywych nagrań audio w złośliwych celach, takich jak fałszowanie czyjegoś głosu w celu podszywania się pod niego w działaniach oszukańczych lub rozpowszechniania dezinformacji, jest uważane za nieetyczne.

Klonowanie głosu

Klonowanie głosu polega na tworzeniu syntetycznej kopii głosu danej osoby, zazwyczaj przy użyciu nagrań jej mowy jako danych treningowych dla modelu uczenia maszynowego.

  • Etyczne użycie klonowania głosu: Klonowanie głosu może być etycznie wykorzystywane do tworzenia spersonalizowanych asystentów głosowych, zachowywania głosów osób dla przyszłych pokoleń za zgodą lub wspierania osób z zaburzeniami mowy.
  • Nieetyczne użycie klonowania głosu: Nieautoryzowane klonowanie głosu do działań oszukańczych, takich jak tworzenie fałszywych nagrań audio w celu podszywania się pod kogoś bez jego zgody, może być wysoce nieetyczne i prowadzić do naruszeń prywatności oraz potencjalnego nadużycia.

Nadużycie głosu AI Joe Bidena

Nadużycie głosu Joe Bidena poprzez generowane przez AI automatyczne połączenia telefoniczne jest wyraźnym przykładem potencjału technologii sztucznej inteligencji do bycia wykorzystywaną w próbach tłumienia głosowania i rozpowszechniania dezinformacji. Konsekwencje nadużywania AI do replikacji głosów postaci politycznych są dalekosiężne. Ten incydent zapowiada przyszłość, w której generowane przez AI głosy mogą być używane do rozpowszechniania fałszywych narracji, manipulowania opinią publiczną i podważania procesu demokratycznego. Potencjalny wpływ na zaufanie do dyskursu politycznego i integralność wyborów jest powodem do poważnych obaw.

W miarę jak technologia AI się rozwija, ryzyko wystąpienia takich incydentów rośnie, a eksperci ds. cyfrowej kryminalistyki, tacy jak Hany Farid, podkreślają potrzebę czujności w radzeniu sobie z tymi wyzwaniami.

Wyborcy powinni być czujni na AI w tym sezonie wyborczym

W miarę zbliżania się wyborów prezydenckich w 2024 roku, wyborcy muszą pozostać czujni wobec nadużywania technologii AI w próbach wpływania na opinię publiczną. Generowana przez AI dezinformacja może stać się powszechnym problemem w kampaniach politycznych, co wymaga zwiększonej świadomości wśród elektoratu.

„Obawialiśmy się, że generatywna AI zostanie wykorzystana w nadchodzących wyborach i widzimy, że to z pewnością znak tego, co ma nadejść,” powiedział Hany Farid, ekspert ds. cyfrowej kryminalistyki, który przeanalizował nagranie automatycznego połączenia Bidena, w wywiadzie.

Jak etycznie używać głosu AI

W obliczu tego incydentu kluczowe jest rozważenie etycznych zastosowań głosu AI. Chociaż technologia głosu AI oferuje wiele możliwości, w tym nagrania lektorskie, istnieje odpowiedzialność za jej etyczne użycie. Obejmuje to wyraźne wskazywanie, kiedy używane są generowane przez AI głosy, unikanie złośliwych intencji oraz poszanowanie prywatności i zgody.

Nadchodzą przepisy dotyczące AI

W miarę postępu technologii, ustawodawcy, twórcy AI, urzędnicy wyborczy i społeczeństwo muszą współpracować, aby ustanowić zabezpieczenia, regulacje i standardy etyczne chroniące proces demokratyczny przed nadużyciami. Integralność wyborów, będąca fundamentem amerykańskiej demokracji, zależy od naszej zdolności do adaptacji i reagowania na pojawiające się wyzwania związane z użyciem AI. W rzeczywistości Kongres już omawia ochronę AI. Podczas niedawnego przesłuchania w Senacie, senator Richard Blumenthal zademonstrował deepfake, odtwarzając własny głos stworzony za pomocą oprogramowania do klonowania głosu AI i scenariusza napisanego przez ChatGPT OpenAI. Federalna Komisja Wyborcza również rozpoczęła proces mający na celu możliwe uregulowanie deepfake'ów generowanych przez AI w reklamach kampanii politycznych w 2024 roku.

Speechify Voice Over Studio: #1 etyczna platforma głosowa AI

Speechify Voice Over Studio to wiodąca etyczna platforma głosowa AI, która wyznacza złoty standard w technologii syntezy mowy. Z ponad 200 realistycznymi głosami tekst na mowę dostępnymi w wielu językach i akcentach, Speechify Voice Over Studio umożliwia użytkownikom tworzenie dynamicznych i angażujących treści bez wysiłku.

Jej przyjazna dla użytkownika platforma oferuje łatwe w użyciu narzędzia do edycji dźwięku AI, zapewniając szczegółową kontrolę nad każdym słowem, umożliwiając użytkownikom dostosowanie wysokości, wymowy, tonu i innych parametrów. Speechify Voice Over Studio kładzie również nacisk na kwestie etyczne, oferując klonowanie głosu wyłącznie dla własnego głosu, zapewniając wyraźną zgodę i minimalizując ryzyko nadużyć.

Speechify Voice Over Studio to idealny wybór do tworzenia przekonujących nagrań głosowych do różnych zastosowań, w tym treści w mediach społecznościowych, gier wideo, audiobooków, podcastów i innych. Podnieś swoje doświadczenie w tworzeniu treści i wypróbuj Speechify Voice Over Studio za darmo już dziś.

FAQ

Jaki jest przykład nieetycznego klonowania głosu AI?

Nieetyczny przykład klonowania głosu AI może polegać na użyciu technologii do stworzenia przekonującego nagrania audio, w którym Elon Musk wypowiada fałszywe stwierdzenia na temat wrażliwych kwestii geopolitycznych, takich jak zaangażowanie Waszyngtonu w sprawy Izraela, co może manipulować opinią publiczną i powodować niezgodę. To zwodnicze użycie klonowania głosu mogłoby wykorzystać zaufanie publiczne i siać niezgodę, przypisując wprowadzające w błąd stwierdzenia wpływowym osobom w celu realizacji określonej agendy.

Czy GOP chce regulować AI?

Według sondażu Fox News, „Republikanie są mniej przekonani niż Demokraci, że rząd federalny musi nałożyć regulacje na systemy sztucznej inteligencji i są jeszcze bardziej sceptyczni, czy rząd jest w stanie to zrobić właściwie.”

Czy Taylor Swift miała zrobiony deepfake?

Istnieje kilka nieetycznych deepfake'ów z Taylor Swift, w tym zdjęcia i muzyka, bez jej zgody. Według doniesień, rozważa ona podjęcie kroków prawnych przeciwko twórcom tych deepfake'ów.

Czy wyborcy w New Hampshire otrzymali deepfake robocall z Bidenem mówiącym, żeby nie głosować?

Tak, oszust stworzył deepfake z Bidenem, używając technologii AI od ElevenLabs, próbując przekonać wyborców, aby nie wpisywali nazwiska Bidena podczas prawyborów w New Hampshire.

Cliff Weitzman

Cliff Weitzman

Cliff Weitzman jest rzecznikiem dysleksji oraz CEO i założycielem Speechify, najpopularniejszej aplikacji do zamiany tekstu na mowę na świecie, z ponad 100 000 recenzji 5-gwiazdkowych i pierwszym miejscem w kategorii Wiadomości i Magazyny w App Store. W 2017 roku Weitzman został wyróżniony na liście Forbes 30 under 30 za swoją pracę na rzecz zwiększenia dostępności internetu dla osób z trudnościami w nauce. Cliff Weitzman był prezentowany w EdSurge, Inc., PC Mag, Entrepreneur, Mashable i innych czołowych mediach.