Джерело дипфейку з голосом Джо Байдена виявили після втручання у вибори
В останню мить перед праймеріз у Нью-Гемпширі розгорнулася підступна схема: використовуючи технології штучного інтелекту, зловмисники імітували голос президента Джо Байдена в автоматизованих телефонних дзвінках. Ця безпрецедентна спроба втручання у вибори показала небезпечне поєднання ШІ, дипфейків і дезінформації, викликавши серйозне занепокоєння щодо можливих наслідків для демократичних процесів. Розберімося, що варто знати про цю шахрайську схему з рободзвінком від імені президента США Джо Байдена і хто за цим стоїть.
Що це за шахрайський дипфейк із Джо Байденом?
У понеділок, 22 січня 2023 року, офіс генерального прокурора штату Нью-Гемпшир повідомив, що розслідує повідомлення про автоматизований дзвінок, у якому за допомогою штучного інтелекту імітували голос президента Джо Байдена, щоб відмовити виборців штату від участі в голосуванні.
Метою цієї шахрайської кампанії було відмовити виборців від участі в праймеріз штату, поширюючи неправдиві твердження про те, що голосування на праймеріз нібито вплине на результати загальних виборів у листопаді. Згенерований ШІ голос Байдена закликав виборців «зберегти» свої голоси для майбутніх федеральних виборів, стверджуючи, що голосування на праймеріз допоможе республіканцям та сприятиме переобранню Дональда Трампа.
Ідентифікатор дзвінка дипфейку з Байденом
Ідентифікатор телефону підробленого дзвінка від імені Байдена виглядав так, наче дзвінок надходив від Кеті Салліван — колишньої голови Демократичної партії штату, яка допомагає керувати супер-PAC «Granite for America», що агітує за внесення імені Байдена до бюлетенів на підтримку президента. Однак Байден не вів кампанію в Нью-Гемпширі й не був у виборчому бюлетені, оскільки праймеріз Демократичної партії в штаті відбувалися вже без нього.
«Цей дзвінок пов'язаний із моїм особистим номером мобільного без моєї згоди», — заявила Салліван у заяві. «Це явне втручання у вибори й очевидна спроба переслідувати мене та інших виборців Нью-Гемпширу, які планують вписати ім'я Джо Байдена у бюлетені у вівторок».
Аудіо шахрайського дипфейку з Байденом
У фейковому аудіо дзвінка, отриманому NBC, ви можете почути голос, дуже схожий на Байдена, який уживає його улюблений вислів: «Що за дурниця». Далі у повідомленні говориться: «Важливо, щоб ви зберегли свій голос для виборів у листопаді» та «голосування цього вівторка лише допоможе республіканцям у їхніх спробах знову обрати Дональда Трампа. Ваш голос має значення у листопаді, а не цього вівторка».
Після оприлюднення цього дзвінка прессекретарка Білого дому Карін Жан-П'єр повідомила громадськість, що це аудіо було створено за допомогою ШІ для поширення дезінформації й не має жодного стосунку до виборчої кампанії Байдена.
У своїй заяві керівниця виборчої кампанії Байдена, Джулі Чавес Родрігес, сказала, що команда «активно обговорює додаткові негайні кроки».
Що робити, якщо ви отримали автоматизований дзвінок від імені Байдена?
Записане повідомлення, ймовірно, було незаконною спробою поширення дезінформації та зриву виборчого процесу. Невідомо, скільки виборців отримали цей дзвінок, але принаймні з десяток це підтвердили. Генеральний прокурор Джон Формелла пояснив, що кожен, хто отримав такий дзвінок, «має повністю ігнорувати зміст цього повідомлення».
Викрито джерело дипфейкового дзвінка від імені Байдена
Згідно з Bloomberg, компанія з виявлення шахрайства у голосових дзвінках Pindrop Security Inc. встановила, що дипфейковий дзвінок не був здійснений виборчим штабом Байдена, а був створений шахраєм із використанням сервісу ElevenLabs — стартапу в сфері ШІ, який надає послуги клонування голосу.
Хоча заява про безпеку ElevenLabs дозволяє клонування голосів «для певних некомерційних цілей, якщо це не шкодить приватності чи економічним інтересам особи», зокрема «для приватного навчання, некомерційних досліджень, освіти, карикатури, пародії, сатири, мистецької та політичної мови, що сприяє публічним дебатам» і «критики та огляду», ElevenLabs заблокував користувача, який створив дипфейковий дзвінок від Байдена.
«Ми прагнемо запобігати зловживанню аудіоінструментами ШІ й ставимося до будь-яких інцидентів із їх неправомірним застосуванням надзвичайно серйозно», — заявили в ElevenLabs для Bloomberg.
Діпфейк vs. AI Voice Generator vs. клонування голосу
Із зростанням популярності генерації голосу за допомогою ШІ важливо розуміти поняття дипфейку, генератора голосу ШІ та клонування голосу, а також різницю між їх етичним і неетичним використанням.
Діпфейк
Діпфейк — це використання штучного інтелекту та машинного навчання для створення або маніпулювання аудіо- й відеоконтентом, часто із підміною чиєїсь зовнішності чи голосу іншою людиною в максимально реалістичній манері.
- Етичне використання діпфейків: технології діпфейку можна етично використовувати в розважальних, мистецьких і освітніх цілях, коли немає наміру обдурити чи завдати шкоди.
- Неетичне використання діпфейків: якщо діпфейк застосовують для створення оманливого контенту, фальшивих наративів або для шахрайського наслідування когось із метою заподіяння шкоди (наприклад, дезінформації чи виготовлення фейкових новин), це викликає серйозні етичні сумніви.
Генератор голосу ШІ
Генератори голосу ШІ використовують алгоритми машинного навчання для синтезування голосів, подібних до людських. Зазвичай вони навчаються на великих масивах даних, щоб відтворювати інтонації та особливості реальних голосів.
- Етичне використання генераторів голосу ШІ: вони можуть бути етично застосовані для різних цілей, зокрема для допомоги людям із мовленнєвими вадами, вивчення мов, розваг чи озвучування тексту.
- Неетичне використання: застосування генерації голосу ШІ для створення фальшивих аудіозаписів із злим умислом — наприклад, щоб підробити чийсь голос із метою шахрайства чи поширення дезінформації — вважається неетичним.
Клонування голосу
Клонування голосу полягає у створенні синтетичної копії голосу людини, зазвичай із використанням записів її мовлення як навчальних даних для алгоритмів машинного навчання.
- Етичне використання клонування голосу: може бути корисним для створення персоналізованих голосових асистентів, збереження голосів людей для майбутніх поколінь із їхньої згоди або допомоги людям із порушеннями мовлення.
- Неетичне використання: несанкціоноване клонування голосу для обману — наприклад, створення фальшивих аудіо для імітації когось без його згоди — є вкрай неетичним і може призвести до порушення приватності та інших зловживань.
Зловживання ШІ-голосом Джо Байдена
Зловживання голосом Джо Байдена через автоматизовані дзвінки, створені ШІ, — яскравий приклад того, як штучний інтелект може бути використаний як зброя для придушення голосування й поширення дезінформації. Наслідки використання ШІ для імітації голосів політиків можуть бути дуже серйозними. Ця подія попереджає про майбутнє, у якому за допомогою штучних голосів можна буде поширювати фальшиві наративи, маніпулювати суспільною думкою й підривати демократичний процес. Можливий вплив на довіру до політичного дискурсу й цілісність виборів викликає серйозну тривогу.
З розвитком ШІ ризик повторення подібних інцидентів зростає, і експерти з цифрової судової експертизи, такі як Гані Фарід, наголошують на необхідності пильності в протидії цим викликам.
Виборці мають бути пильними щодо ШІ на цьогорічних виборах
У міру наближення президентських виборів 2024 року виборці мають залишатися уважними до можливого зловживання ШІ з метою впливу на громадську думку. Дезінформація, згенерована ШІ, може стати поширеною проблемою в політичних кампаніях, що вимагає підвищеної обізнаності серед електорату.
«Ми давно турбуємося, що генеративний ШІ буде використаний як зброя на цих виборах, і зараз ми бачимо перші ознаки подібних явищ», — сказав Гані Фарід, експерт із цифрової судової експертизи, який аналізував запис рободзвінка з Байденом, в інтерв’ю.
Як етично використовувати голосовий ШІ
Після цього інциденту особливо важливо замислитися над етичним застосуванням голосового ШІ. Хоча технологія відкриває багато можливостей, зокрема для створення озвучування, користуватися нею слід відповідально. Це передбачає чітке зазначення, коли використовується голос, згенерований ШІ, уникнення зловмисних намірів, а також повагу до приватності та згоди.
Закони й регулювання щодо ШІ вже на підході
Із розвитком технологій законодавці, розробники ШІ, виборчі посадовці та суспільство мають спільно працювати над упровадженням запобіжників, регулювань і етичних стандартів, щоб захистити демократичний процес від подібних зловживань. Чесність виборів — основа американської демократії — залежить від нашої здатності відповідати на нові виклики, пов'язані з використанням ШІ. Насправді Конгрес уже обговорює захист від зловживань ШІ. На нещодавньому засіданні Сенату сенатор Річард Блументал навіть продемонстрував дипфейк зі своїм власним голосом, створеним за допомогою програм клонування голосу ШІ на основі сценарію від OpenAI ChatGPT. Федеральна виборча комісія уже розпочала процес, розглядаючи можливе запровадження регулювання дипфейків, створених ШІ, у виборчій рекламі на виборах 2024 року.
Speechify Voice Over Studio: етична ШІ-платформа №1
Speechify Voice Over Studio — провідна етична платформа для синтетичного мовлення, яка задає золотий стандарт у технологіях штучного голосу. Завдяки понад 200 реалістичним голосам для конвертації тексту в мовлення, доступним різними мовами та з різними акцентами, Speechify Voice Over Studio дає змогу користувачам легко створювати динамічний та захопливий контент.
Юзерфрендлі платформа має прості у використанні аудіоредактори на базі ШІ та дозволяє детально керувати кожним словом, налаштовуючи висоту, вимову, тон і багато іншого. Speechify Voice Over Studio також ставить на перше місце етичні міркування, дозволяючи клонування виключно власного голосу користувача, що забезпечує явну згоду й зменшує ризик зловживань.
Speechify Voice Over Studio — ідеальний вибір для створення якісних озвучувань для різних сфер, зокрема соціальних мереж, відеоігор, аудіокниг, подкастів тощо. Покращте свій досвід створення контенту та спробуйте Speechify Voice Over Studio безкоштовно уже сьогодні.
Поширені запитання (FAQ)
Який приклад неетичного клонування голосу ШІ?
Неетичним прикладом використання ШІ для клонування голосу може бути створення переконливого фейкового аудіозапису, у якому Ілон Маск нібито робить неправдиві заяви щодо чутливих геополітичних питань, наприклад щодо політики Вашингтона щодо Ізраїлю, що може впливати на громадську думку та сіяти розбрат. Таке оманливе використання клонування голосу експлуатує довіру суспільства й приписує відомим особам фальшиві висловлювання, просуваючи певний порядок денний.
Чи хоче Республіканська партія (GOP) регулювати ШІ?
Згідно з опитуванням Fox News, «республіканці менше впевнені, ніж демократи, що федеральний уряд має запроваджувати регулювання для систем штучного інтелекту, і ще більш скептично налаштовані щодо здатності уряду впоратися з цим завданням».
Чи був дипфейк із Тейлор Свіфт?
Тейлор Свіфт стала жертвою кількох неетичних дипфейків без її згоди, включно з фото та музикою. За повідомленнями, вона навіть розглядає можливість юридичних дій проти творців цих дипфейків.
Чи отримували виборці Нью-Гемпширу дипфейковий дзвінок від Байдена із закликом не голосувати?
Так, шахрай створив дипфейк від імені Байдена за допомогою технології ШІ від ElevenLabs, намагаючись відмовити виборців уписувати ім'я Байдена в бюлетені під час праймеріз у Нью-Гемпширі.

