Budapest
2024 november 16., szombat
image

Vége az okostelefonoknak? Itt a viselhető eszköz, ami a tenyérre vetíti az információkat – videó

A mesterséges intelligenciával működő eszközök piaca óriási ugrás előtt állhat: kisebb léptékben, de kutatók kísérleteznek már a szájmozgást algoritmusokkal követni képes szemüveggel, illetve egy másik csapat olyan szemüveget tesztel, ami figyeli a párbeszédet, és a lencséken jeleníti meg az általa javasolt válaszokat.

Ezeknél is érdekesebb a titkos, két volt Apple alkalmazott által alapított tech startup, a Humane eszköze: ez pedig nem más, mint egy hordozható eszköz, ami voltaképpen egy projektor.

A két alapító, Imran Chaudhri és Bethany Bongiorno egy TED-eseményen mutatta be az eszközt, amiről az Axios írt elsőként, majd az Inverse számolt be róla részletesebben az előadás videófelvételét megszerezve – ez ugyanis csak április 22-én, szombaton lesz elérhető teljes terjedelmében.

Viszont már ennyiből is elképesztő részletekre derült fény. Chaudhri az előadáson röviden értekezett a mesterségesintelligencia-alapú technológiákról – így a ChatGPT-ről is –, majd felvetette a kérdést, hogy hogyan lehetne ezeket a technológiákat jobban kiaknázni úgy, hogy jobbá tegyék az életünket.

Ezt követően mutatta be a már említett, viselhető eszközt, ami abból a szempontból is különleges, hogy teljesen független, tehát a működtetéséhez nem szükséges párosítani azt mondjuk egy okostelefonhoz.

Az eszközzel a beszámolók szerint a telefonálás is egyszerű: a bemutató során Chaudhri csak felemelte a karját, a projektor kivetítette a bejövő hívásokat mutató felületet. Nem volt menü sem a navigációhoz.

Emellett a férfi egy nyelvi fordítási funkciót is bemutatott, amivel a saját hangján szólal meg az eszköz egy másik nyelven. Az Axios szerint a kütyü angolról franciára fordította a Chaudhri által elmondottakat, az ő MI-generált hangjával.

Emellett a kis eszköz képes a meetingeket is összefoglalni, és listázni, hogy mik azok a fontos dolgok, amiket kihagyhatott a viselője.

Emellett felismerni az elé rakott ételt, és abból megmondani például, hogy a felhasználó ételintoleranciája ismeretében tanácsos-e azt elfogyasztania.

A jelek szerint az MI-alapú készülék azért képes ezekre, mert kamerával, mikrofonnal és különféle szenzorokkal is fel van szerelve. Abban is el fog térni mondjuk az Apple-féle Siri, vagy az Amazon-féle Alexa asszisztensektől, hogy nem kell őket egy szó elmondásával előhívni – az eszközt csak meg kell érinteni, majd lehet is beszélni vele.

Lesznek rajta azonban LED-fények, melyek jelzik, hogy mikor figyel a tulajdonosára az eszköz, és a bejövő hívásokat is jelzi velük.

Egyelőre még csak ennyi ismert a Humane projektorral szerelt, MI-alapú eszközéről, de minden bizonnyal a teljes TED-előadás nyilvánosságra kerülése után még többet lehet megtudni róla. Az azonban biztos, hogy a mesterséges intelligencia elkerülhetetlenül beépül majd a mindennapi életbe a jövőben.