A cikk szerint az okostelefonokon egyre gyakoribb a helyi adatfeldolgozás az AI alkalmazások nagy sebességű használata során, ahelyett hogy kizárólag a szerverekkel internetkapcsolaton keresztül kommunikálnának. Az Android készülékeket gyártó cégek már bejelentettek hasonló fejlesztéseket, amelyekről az Android Authority is beszámolt. Az Apple esetében azonban eddig nem voltak hírek ezzel kapcsolatban. Most azonban a cég fejlesztői publikáltak szakcikkeket erről a témáról.
A cikk részletesen bemutatja, hogy a nagy nyelvi modellek (LLM), mint például a ChatGPT, hogyan működhetnek hatékonyan korlátozott számítási kapacitású és alacsony RAM-mal rendelkező eszközökön. Az Apple eszközei általában kevés RAM-mal rendelkeznek, de az Apple fejlesztői olyan technikákat dolgoztak ki, amelyek jelentős teljesítménynövekedést eredményeznek a helyi mesterséges intelligencia alkalmazásokban. A hagyományos megoldásokhoz képest 4-5-szörös CPU- és 20-25-szörös GPU-teljesítmény növekedést értek el.
A cikk azt is megjegyzi, hogy a régebbi iPhone generációk felhasználói is előnyt élvezhetnek ebből a fejlesztésből. Ez azt jelenti, hogy nem feltétlenül van szükség a legújabb okostelefonokra a ChatGPT vagy más nagy nyelvi modellekkel való zökkenőmentes kommunikációhoz. A válaszidők elegendően gyorsak lehetnek a természetes beszélgetési élmény biztosításához még a régebbi eszközökön is.