Komoly felszólítólevelet kapott az Apple, a Facebook, a Microsoft
Ausztráliában új törvényeket vezettek be, amelyek szabályozzák az online problémákkal szembeni fellépését, s ennek keretében akár pénzbírságot is kiszabhatnak a technológiai cégeknek. Az internetfelhasználók védelmére létrehozott testület, az e-Safety Comissioner a januárban hatályba lépett törvények erejével kényszerítené az említett óriáscégeket, hogy 28 napon belül hozzák nyilvánosságra a CSAM (Child Sexual Abuse Material, gyerekek szexuális zaklatásával kapcsolatos anyagok) kezelésére vonatkozó intézkedéseiket a különböző platformjaikon. Amennyiben nem tartják be a határidőt, akár napi 155 millió forintnak megfelelő bírságot is kaphatnak.
„Ez a tevékenység már nem korlátozódik a sötét web rejtett zugaira, hanem elterjedt azokon a mainstream platformokon, amelyeket mi és gyermekeink mindennap használunk. Mivel egyre több vállalat tér át a titkosított üzenetküldő szolgáltatások felé, és olyan funkciókat telepít, mint az élő közvetítés, attól tartunk, hogy az ilyen szörnyű anyagok ellenőrizetlenül terjednek majd ezeken a platformokon" – idézi az MSPowerUser Julie Inman Grant biztos nyilatkozatát.
A Microsoft szóvivője már reagált is, és azt mondta, hogy 28 napon belül válaszolni fognak. A Meta szóvivője is megígért, hogy a vállalat továbbra is „proaktívan együttműködik az e-biztonsági biztossal ezekben a fontos kérdésekben”. Az Apple-től egyelőre nem érkezett válasz.
Nincs könnyű dolguk egyébként az internetes cégeknek, hogy megtalálják a módját a gyermekek zaklatását célzó anyagok megfigyelését a titkosított üzenetküldő és streamingszolgáltatásokon anélkül, hogy megsértenék a felhasználók magánéletét. Mindez azt is jelenti, hogy hatékony rendszereket kell tervezni a CSAM-ok azonosítására.
Tavaly például egy Android- és Google-fiók felhasználót bűnözőként jelölt meg a Google mesterséges intelligenciája, miután gyermeke orvosi vonatkozású fotói miatt tévesen CSAM-ként címkézte fel a képet. Bár a férfi nevét a nyomozás után tisztázták, Google-fiókját nem kapta vissza. Ez az eset mindenesetre megkérdőjelezi a CSAM-azonosító rendszer hatékonyságát.