OpenAI bør være opmærksomme, da Apple ser ud til at springe ind i AI-racet med et nyt projekt, der kan udfordre ChatGPT. Apple er rapporteret at udvikle en avanceret sprogmodel kaldet ReALM, som står for Reference Resolution As Language Modeling. Formålet med denne model er at styrke Siri ved at forbedre dens evne til at forstå samtalekontekster. ReALM kommer i fire varianter, og Apple påstår, at selv den mindste udgave præsterer på et niveau, der matcher OpenAIs ChatGPT.
Denne opsigtsvækkende oplysning blev først offentliggjort af Windows Central via en Apple forskningsartikel og giver et indblik i Apples indsats indenfor AI i noget tid. ReALM er designet til at udvide Siris kapaciteter, især med hensyn til kontekstforståelse i dialoger.
Ifølge rapporterne vil ReALM også kunne analysere indholdet på en skærm, hvilket giver den en fordel over ChatGPT, da sidstnævnte, på trods af at det kan behandle billeder og PDF’er, ikke kan læse og reagere baseret på hele skærmindholdet.
Apple planlægger at lancere ReALM i fire størrelser: ReALM-80M, ReALM-250M, ReALM-1B, og ReALM-3B, hvor bogstaverne angiver antallet af parametre i millioner eller milliarder.
ReALM er blevet benchmarket mod OpenAIs GPT-3.5 og GPT-4, med bekymrende resultater for OpenAI, idet selv Apples mindste model, ReALM-80M, angiveligt matcher GPT-4, og de større modeller yder betydeligt bedre.
Forskningen viser, at ReALM overgår lignende teknologier, og den mindste model er op til 5% bedre til at behandle skærmbaseret indhold.
Mens virksomheder som Microsoft hurtigt har omfavnet AI-tendensen og investeret massivt i teknologien, har Apple været mere tilbageholdende offentligt. Dog har rygter siden sidste år antydet, at Apple havde ambitioner om at udvide Siris AI-funktioner betydeligt, og denne forskningsartikel kunne være bekræftelsen på disse planer.
Det er stadig uvist, hvornår Apple vil introducere ReALM til det brede marked, men det forventes, at Apple vil diskutere ReALM ved WWDC i juni.
Be the first to comment