26° Budapest
2025 augusztus 18., hétfő
image

Sajnos az „unokázós csalók” ráéreztek a 99%-ig tökéletes módszerre: tényleg az unoka hangján szólalnak meg

Ki ne ugrana azonnal, ha hírt kap arról, hogy valamilyen rokona, szerette bajban van. Az unokázós csalók ezt kihasználva a nagyszülők szeretetére és hiszékenységére építenek, és bár a módszerük egyre kevésbé hatékony, a mesterséges intelligencia negatív változásokat hozhat ezen a területen.

Az ilyesfajta csalás nem csak Magyarországon divat: a ZDNet egy jelentést idéz, amely szerint 2022-ben több mint 36 ezer amerikait tettek oly módon lóvá, hogy családtagjaikra, barátaikra hivatkoztak, és több mint 11 millió dollárt csaltak ki tőlük.

Sajnos úgy tűnik, a mesterséges intelligencia térhódítása ezt a ténykedést is érintheti: ugyanazokat a technikákat, amelyeket a hasznos nyelvi modellek betanításához használnak, felhasználhatják károsabb programok, például mesterséges intelligencia alapú hanggenerátorok betanításához.

Az ilyen programok elemzik egy személy hangját, különböző mintákat vesznek alapul, amelyek az egyedi hangot alkotják, beleértve a hangmagasságot és az akcentust, majd újra létrehozzák azt. Ezen eszközök közül sok másodpercen belül olyan hangokat produkál, amely gyakorlatilag megkülönböztethetetlen az eredeti forrástól. A kiszemelt áldozat ezek után „közvetlenül a szeretett személytől” kap telefonhívást, és eszébe sem jut, hogy valójában egy robottal beszél.

Kérdés persze, mit lehet tenni, hogy ne dőljünk be a mesterséges intelligenciának. A legfontosabb talán annak tudatosítása, hogy létezik ez a lehetőség. Éppen ezért egy ilyen hívás esetén érdemes ellenőrizni a forrást, olyan személyes kérdést feltenni a hívónak, amelyre csak ő tudhatja a választ. Meg lehet próbálni felhívni vagy SMS-t küldeni a „bajba jutottnak” egy másik telefonról a hívó személyazonosságának ellenőrzésére.