Z razvojem umetne inteligence (UI) smo doživeli preobrat v številnih panogah, od zdravstva do zabave. A ta tehnološki napredek ni vedno koristen. Glasovno kloniranje, ki je rezultat tehnologije UI, prevaranti uporabljajo za izkoriščanje ljudi. Policija in agencije, tudi ameriška FTC, beležijo izrazit porast prevar s kloniranjem glasu.
Je kloniranje glasu resnična stvar?
Da, kloniranje glasu je resnično in omogočeno z napredno UI. Tehnologija lahko iz kratkega zvočnega vzorca ustvari skoraj popolno kopijo glasu. Podjetja, kot je OpenAI, s ChatGPT in drugimi modeli vodijo razvoj generativne UI s takšnimi zmožnostmi.
S čim ljudje klonirajo glasove?
Na voljo je več UI programov za kloniranje glasu. Tukaj je 8 najbolj uveljavljenih:
- Lyrebird: V lasti Descript, ponuja preprosto platformo za kloniranje glasov.
- Resemble AI: Znano po vrhunskih klonih glasov za podjetja.
- iSpeech: Priljubljen za ustvarjanje realistične sinteze govora v več jezikih.
- CereVoice Me: Osebni digitalni glasovi za uporabnike asist. tehnologij.
- Baidu Deep Voice: Klonira glas z le nekaj minut posnetka.
- VocaliD: Ustvarja unikatne digitalne glasove za znamčenje ali osebno uporabo.
- Real-Time Voice Cloning Toolbox: Odprtokodna rešitev za kloniranje govora v živo.
- Modulate: Omogoča glasovne maske za prilagoditev glasu v živo.
Kakšen je namen kloniranja glasu?
Kloniranje glasu ima tudi dobre plati. Uporabno je pri vračanju govora tistim, ki so ga izgubili zaradi bolezni. Oživlja zgodovinske in izmišljene like v filmih ali podcastih. Podjetja ga uporabljajo za izboljšavo chatbotov in bolj osebno izkušnjo strank.
Kako potekajo AI prevare z glasom?
Pri prevarah z glasovnim kloniranjem kriminalci uporabijo UI, da posnemajo glas znane osebe – lahko je to bližnja oseba ali znani obraz, kot je Elon Musk. Kloniran glas uporabijo v klicih, sporočilih ali na družbenih omrežjih (npr. TikTok), da ljudi zavedejo. Primer: starejši človek prejme klic "svojega sorodnika", ki po prometni nesreči nujno prosi za denar. Prevarant lahko prikaže lažno številko in zahteva darilne kartice ali plačilo v kriptovalutah.
Za kaj prevaranti izrabljajo kloniran glas?
Te prevare služijo izvabljanju denarja ali občutljivih podatkov. Fox News je poročal o primeru iz Arizone, kjer so goljufi ženski z glasom njenega sina lažno namignili na ugrabitev in jo prisilili v nakazilo denarja. Podobno prihaja do kraj identitete, phishinga in širjenja lažnih informacij.
Kako se zaščititi pred prevarami z glasovnim kloniranjem?
Zaščito omogočata previdnost in znanje. Nikoli ne delite osebnih podatkov po telefonu, ne glede na to, kako znan se zdi glas. Bodite pozorni pri nujnih prošnjah za denar (darilne kartice, kripto). S svojimi določite varnostno geslo za preverjanje. Prevaro prijavite FTC na njihovi spletni strani (www.ftc.gov).
Zakaj je težko prepoznati prevaro z glasom?
Prevaro težko prepoznamo, ker UI omogoča zelo prepričljivo kloniranje, skoraj neločljivo od pravega glasu. Z deepfake tehnologijo lahko ustvarijo tudi zelo realistične videe in tako žrtve še dodatno zavedejo.
Kako najbolje zaščititi svoj glas?
Bodite previdni, kje in komu pošiljate glasovne posnetke. Ne delite glasovnih sporočil prek slabo zavarovanih platform in ne odgovarjajte klicateljem, ki zahtevajo glasovno potrditev. Glasovne asistente uporabljajte v zasebnem okolju, svojega glasu pa ne objavljajte javno brez ustrezne zaščite.
Kljub izzivom podjetja za kibernetsko varnost razvijajo orodja za odkrivanje AI prevar z glasom. Policija ozavešča ljudi, nastaja zakonodaja proti tej grožnji. S stalno previdnostjo in napredkom tehnologije lahko ostanemo prevarantom korak pred njimi.

