Vége az okostelefonoknak? Itt a viselhető eszköz, ami a tenyérre vetíti az információkat – videó
A mesterséges intelligenciával működő eszközök piaca óriási ugrás előtt állhat: kisebb léptékben, de kutatók kísérleteznek már a szájmozgást algoritmusokkal követni képes szemüveggel, illetve egy másik csapat olyan szemüveget tesztel, ami figyeli a párbeszédet, és a lencséken jeleníti meg az általa javasolt válaszokat.
Ezeknél is érdekesebb a titkos, két volt Apple alkalmazott által alapított tech startup, a Humane eszköze: ez pedig nem más, mint egy hordozható eszköz, ami voltaképpen egy projektor.
A két alapító, Imran Chaudhri és Bethany Bongiorno egy TED-eseményen mutatta be az eszközt, amiről az Axios írt elsőként, majd az Inverse számolt be róla részletesebben az előadás videófelvételét megszerezve – ez ugyanis csak április 22-én, szombaton lesz elérhető teljes terjedelmében.
Viszont már ennyiből is elképesztő részletekre derült fény. Chaudhri az előadáson röviden értekezett a mesterségesintelligencia-alapú technológiákról – így a ChatGPT-ről is –, majd felvetette a kérdést, hogy hogyan lehetne ezeket a technológiákat jobban kiaknázni úgy, hogy jobbá tegyék az életünket.
Ezt követően mutatta be a már említett, viselhető eszközt, ami abból a szempontból is különleges, hogy teljesen független, tehát a működtetéséhez nem szükséges párosítani azt mondjuk egy okostelefonhoz.
Az eszközzel a beszámolók szerint a telefonálás is egyszerű: a bemutató során Chaudhri csak felemelte a karját, a projektor kivetítette a bejövő hívásokat mutató felületet. Nem volt menü sem a navigációhoz.
Emellett a férfi egy nyelvi fordítási funkciót is bemutatott, amivel a saját hangján szólal meg az eszköz egy másik nyelven. Az Axios szerint a kütyü angolról franciára fordította a Chaudhri által elmondottakat, az ő MI-generált hangjával.
Emellett a kis eszköz képes a meetingeket is összefoglalni, és listázni, hogy mik azok a fontos dolgok, amiket kihagyhatott a viselője.
Emellett felismerni az elé rakott ételt, és abból megmondani például, hogy a felhasználó ételintoleranciája ismeretében tanácsos-e azt elfogyasztania.
A jelek szerint az MI-alapú készülék azért képes ezekre, mert kamerával, mikrofonnal és különféle szenzorokkal is fel van szerelve. Abban is el fog térni mondjuk az Apple-féle Siri, vagy az Amazon-féle Alexa asszisztensektől, hogy nem kell őket egy szó elmondásával előhívni – az eszközt csak meg kell érinteni, majd lehet is beszélni vele.
Lesznek rajta azonban LED-fények, melyek jelzik, hogy mikor figyel a tulajdonosára az eszköz, és a bejövő hívásokat is jelzi velük.
Egyelőre még csak ennyi ismert a Humane projektorral szerelt, MI-alapú eszközéről, de minden bizonnyal a teljes TED-előadás nyilvánosságra kerülése után még többet lehet megtudni róla. Az azonban biztos, hogy a mesterséges intelligencia elkerülhetetlenül beépül majd a mindennapi életbe a jövőben.