Sokan közülünk már most is megosztják mindennapi életük részleteit az interneten. Ez azt jelenti, hogy a hang valósághű másolatának létrehozásához szükséges hangadatok könnyen elérhetőek lehetnek a közösségi médiában.
A mesterséges intelligencia segítségével olyan emberek hangját imitáló átverésekkel, amelyekről esetleg tudja, hogy a nyilvánosság gyanútlan tagjait kihasználják. Ezek a hívások az úgynevezett generatív AI-t használják , amely olyan rendszerekre utal, amelyek képesek szöveget, képeket vagy bármilyen más médiát, például videót létrehozni, a felhasználó utasításai alapján.
A mélyhamisítások az elmúlt néhány évben számos nagy horderejű incidenssel váltak ismertté, például Emma Watson színésznő képmását használták fel a Facebookon és az Instagramon megjelent szuggesztív reklámok sorozatában .
Volt egy széles körben megosztott – és leleplezett – videó is 2022-ből, amelyen Volodimir Zelenszkij ukrán elnök azt mondta az ukránoknak, hogy „ tegyék le a fegyvert ”.
Manapság egyre elterjedtebb az a technológia, amellyel mélyhamisítványt, egy személy hangjának valósághű másolatát lehet létrehozni . Valaki hangjának valósághű másolatának létrehozásához adatokra van szükség az algoritmus betanításához. Ez azt jelenti, hogy sok hangfelvételt kell készítenie a célpont hangjáról. Minél több példát tudsz bevinni az algoritmusokba a személy hangjára, annál jobb és meggyőzőbb lesz a végső másolat.
Sokan már most is megosztunk mindennapi életünk részleteit az interneten. Ez azt jelenti, hogy a hang valósághű másolatának elkészítéséhez szükséges hangadatok könnyen elérhetők lehetnek a közösségi médiában. De mi történik, ha egy példány kint van? Mi a legrosszabb, ami történhet? Egy mélyhamisítási algoritmus lehetővé teheti, hogy bárki, akinek az adatok birtokában van, „ön” azt mondjon, amit akar . A gyakorlatban ez olyan egyszerű lehet, hogy kiír egy szöveget, és ráveszi a számítógépet, hogy hangosan mondja ki az Ön hangjával.
Főbb kihívások
Ez a képesség növeli a hangos félretájékoztatás és félretájékoztatás terjedését. Használható arra, hogy megpróbálja befolyásolni a nemzetközi vagy nemzeti közvéleményt , amint az Zelensky „videóinál” látható.
De ezeknek a technológiáknak a mindenütt jelenléte és elérhetősége helyi szinten is jelentős kihívásokat jelent – különösen az „AI csaláshívások” növekvő tendenciája miatt. Sokan kapnak olyan átverést vagy adathalász hívást, amely például azt közli velünk, hogy számítógépünket feltörték, és azonnal be kell jelentkeznünk, így a hívó fél hozzáférhet adatainkhoz.
Gyakran nagyon könnyű észrevenni, hogy ez egy átverés, különösen akkor, ha a hívó olyan kéréseket intéz, amelyeket egy legitim szervezettől nem tenne meg. Most azonban képzelje el, hogy a telefon másik végén a hang nem csak egy idegen, hanem pontosan úgy szól, mint egy barát vagy szeretett. Ez a bonyolultság és a pánik egy teljesen új szintjét emeli a szerencsétlen címzett számára.
A CNN legutóbbi sztorija rávilágít egy incidensre, amikor egy anyát ismeretlen számról hívtak. Amikor felvette a telefont, a lánya volt az. A lányt állítólag elrabolták, és felhívta az anyját, hogy váltságdíjat kérjen.
Valójában a lány épségben volt. A csalók mélyen hamisították a hangját. Ez nem elszigetelt eset, a csalás változatai között szerepel egy feltételezett autóbaleset, amikor az áldozat pénzért hívja a családját , hogy segítsen nekik egy baleset után.
Régi trükk új technológiával
Ez önmagában nem új átverés, a „ virtuális emberrablás csalás ” kifejezés már több éve létezik. Ennek számos formája lehet, de elterjedt megközelítés az, hogy az áldozatokat váltságdíj fizetésére csalják, hogy kiszabadítsák szeretteit, akikről úgy gondolják, hogy megfenyegetik.
A csaló megkérdőjelezhetetlen engedelmességet próbál elérni, hogy az áldozatot gyors váltságdíj megfizetésére késztesse, mielőtt a megtévesztés kiderülne. A nagy teljesítményű és elérhető AI-technológiák hajnala azonban jelentősen megnövelte a várakozást – és személyesebbé tette a dolgokat. Az egy dolog, hogy egy névtelen telefonálót letesz, de valódi bizalomra van szükség az ítélőképességében, ha olyan személy hívását bontja le, akinek a hangja éppen úgy hangzik, mint az Ön gyermeke vagy partnere.
Létezik olyan szoftver, amely a mélyhamisítások azonosítására használható, és létrehozza a hang vizuális megjelenítését, amelyet spektrogramnak neveznek. Amikor a hívást hallgatja, lehetetlennek tűnhet megkülönböztetni a valós személytől, de a hangok megkülönböztethetők, ha a spektrogramokat egymás mellett elemezzük. Legalább egy csoport felajánlott észlelőszoftvert letöltésre, bár az ilyen megoldások használatához még szükség lehet némi technikai tudásra.
A legtöbb ember nem tud spektrogramokat generálni, tehát mit tehet, ha nem biztos benne, hogy az igazi-e, amit hall? Mint minden más médiával, amellyel találkozhat: légy szkeptikus.
Ha váratlanul felhív egy szeretett személytől, és pénzt kérnek tőled, vagy olyan kéréseket tesznek, amelyek látszólag nem jellemzőek, hívd vissza, vagy küldj neki egy SMS-t, hogy megerősítsd, valóban beszélsz vele.
Ahogy az AI képességei bővülnek, a határvonalak a valóság és a fikció között egyre inkább elmosódnak. És nem valószínű, hogy sikerül visszatenni a technológiát a dobozba. Ez azt jelenti, hogy az embereknek óvatosabbá kell válniuk.
Ha tetszett ez a cikk, talán fontolóra vehetné, hogy adományozzon.
Teljesen önkéntesen dolgozunk. Kérjük, segítse munkánkat.