Az ismerős hangokat utánzó mesterséges intelligencia átverés egyre nagyobb problémát jelent

Az ismerős hangokat utánzó mesterséges intelligencia átverés egyre nagyobb problémát jelent

Mesterséges intelligencia

Sokan közülünk már most is megosztják mindennapi életük részleteit az interneten. Ez azt jelenti, hogy a hang valósághű másolatának létrehozásához szükséges hangadatok könnyen elérhetőek lehetnek a közösségi médiában.

A mesterséges intelligencia segítségével olyan emberek hangját imitáló átverésekkel,  amelyekről esetleg  tudja, hogy a nyilvánosság gyanútlan tagjait kihasználják. Ezek a hívások az úgynevezett generatív AI-t használják  , amely olyan rendszerekre utal, amelyek képesek szöveget, képeket vagy bármilyen más médiát, például videót létrehozni, a felhasználó utasításai alapján.

A mélyhamisítások az elmúlt néhány évben számos nagy horderejű incidenssel váltak ismertté, például Emma Watson színésznő képmását használták fel a   Facebookon és az Instagramon megjelent szuggesztív reklámok sorozatában .

Volt egy széles körben megosztott – és leleplezett – videó is 2022-ből, amelyen Volodimir Zelenszkij ukrán elnök azt mondta az ukránoknak, hogy „ tegyék le a fegyvert ”.

Manapság egyre elterjedtebb az a technológia, amellyel mélyhamisítványt, egy személy hangjának valósághű másolatát lehet létrehozni  . Valaki hangjának valósághű másolatának létrehozásához   adatokra van szükség az algoritmus betanításához. Ez azt jelenti, hogy sok hangfelvételt kell készítenie a célpont hangjáról. Minél több példát tudsz bevinni az algoritmusokba a személy hangjára, annál jobb és meggyőzőbb lesz a végső másolat.

Sokan már most is megosztunk mindennapi életünk részleteit az interneten. Ez azt jelenti, hogy a hang valósághű másolatának elkészítéséhez szükséges hangadatok könnyen elérhetők lehetnek a közösségi médiában. De mi történik, ha egy példány kint van? Mi a legrosszabb, ami történhet? Egy mélyhamisítási algoritmus lehetővé teheti, hogy bárki, akinek az adatok birtokában van,  „ön” azt mondjon, amit akar . A gyakorlatban ez olyan egyszerű lehet, hogy kiír egy szöveget, és ráveszi a számítógépet, hogy hangosan mondja ki az Ön hangjával.

Főbb kihívások

Ez a képesség növeli a hangos félretájékoztatás és félretájékoztatás terjedését. Használható  arra, hogy megpróbálja befolyásolni a nemzetközi vagy nemzeti közvéleményt , amint az Zelensky „videóinál” látható.

De  ezeknek a technológiáknak a mindenütt jelenléte és elérhetősége  helyi szinten is jelentős kihívásokat jelent – ​​különösen az „AI csaláshívások” növekvő tendenciája miatt. Sokan kapnak olyan átverést vagy adathalász hívást, amely például azt közli velünk, hogy számítógépünket feltörték, és azonnal be kell jelentkeznünk, így a hívó fél hozzáférhet adatainkhoz.

Gyakran nagyon könnyű észrevenni, hogy ez egy átverés, különösen akkor, ha a hívó olyan kéréseket intéz, amelyeket egy legitim szervezettől nem tenne meg. Most azonban képzelje el, hogy a telefon másik végén a hang nem csak egy idegen, hanem pontosan úgy szól, mint egy barát vagy szeretett. Ez a bonyolultság és a pánik egy teljesen új szintjét emeli a szerencsétlen címzett számára.

A  CNN legutóbbi sztorija  rávilágít egy incidensre, amikor egy anyát ismeretlen számról hívtak. Amikor felvette a telefont, a lánya volt az. A lányt állítólag elrabolták, és felhívta az anyját, hogy váltságdíjat kérjen.

Valójában a lány épségben volt. A csalók mélyen hamisították a hangját. Ez nem elszigetelt eset, a csalás változatai között szerepel egy feltételezett autóbaleset, amikor az áldozat  pénzért hívja a családját  , hogy segítsen nekik egy baleset után.

Régi trükk új technológiával

Ez önmagában nem új átverés, a „ virtuális emberrablás csalás ” kifejezés már több éve létezik. Ennek számos formája lehet, de elterjedt megközelítés az, hogy az áldozatokat váltságdíj fizetésére csalják, hogy kiszabadítsák szeretteit, akikről úgy gondolják, hogy megfenyegetik.

A csaló megkérdőjelezhetetlen engedelmességet próbál elérni, hogy az áldozatot gyors váltságdíj megfizetésére késztesse, mielőtt a megtévesztés kiderülne. A nagy teljesítményű és elérhető AI-technológiák hajnala azonban jelentősen megnövelte a várakozást – és személyesebbé tette a dolgokat. Az egy dolog, hogy egy névtelen telefonálót letesz, de valódi bizalomra van szükség az ítélőképességében, ha olyan személy hívását bontja le, akinek a hangja éppen úgy hangzik, mint az Ön gyermeke vagy partnere.

Létezik olyan szoftver, amely a mélyhamisítások azonosítására használható, és létrehozza a hang vizuális megjelenítését, amelyet spektrogramnak neveznek. Amikor a hívást hallgatja, lehetetlennek tűnhet megkülönböztetni a valós személytől, de  a hangok megkülönböztethetők,  ha a spektrogramokat egymás mellett elemezzük. Legalább egy csoport felajánlott észlelőszoftvert letöltésre, bár az ilyen megoldások használatához még szükség lehet némi technikai tudásra.

A legtöbb ember nem tud spektrogramokat generálni, tehát mit tehet, ha nem biztos benne, hogy az igazi-e, amit hall? Mint minden más médiával, amellyel találkozhat: légy szkeptikus.

Ha váratlanul felhív egy szeretett személytől, és pénzt kérnek tőled, vagy olyan kéréseket tesznek, amelyek látszólag nem jellemzőek, hívd vissza, vagy küldj neki egy SMS-t, hogy megerősítsd, valóban beszélsz vele.

Ahogy az AI képességei bővülnek, a határvonalak a valóság és a fikció között egyre inkább elmosódnak. És nem valószínű, hogy sikerül visszatenni a technológiát a dobozba. Ez azt jelenti, hogy az embereknek óvatosabbá kell válniuk.



Ha tetszett ez a cikk, talán fontolóra vehetné, hogy adományozzon.
Teljesen önkéntesen dolgozunk. Kérjük, segítse munkánkat.