Kraftfull AI för mobilen: Kompakta språkmodeller som sparar energi och främjar integritet

Lästid: 2 minuter
Av Maria Sanchez
- i
Mobila enheter med lysande AI-nätverksanslutningar.

StockholmForskare från Princeton och Stanford har utvecklat en ny metod för att göra stora språkmodeller mindre, så att de bättre kan fungera på mobila enheter som telefoner och bärbara datorer. Denna metod bidrar till att förbättra integriteten, spara energi och minska kostnaderna för användningen av dessa språkmodeller.

Att använda stora språkmodeller (LLMs) innebär ofta att data skickas till avlägsna servrar, vilket är dyrt och energikrävande. Den nya algoritmen kallad CALDERA underlättar genom att minska onödig data och sänka precisionen på LLM-lager. Detta möjliggör lagring av LLMs på lokala enheter utan att tappa mycket noggrannhet.

Tekniken använder "lågnivåprecision" och "lågrad" metoder för att kraftigt komprimera data. Lågnivåprecision minskar antalet bitar som behövs för lagring och bearbetning, vilket sparar energi. Lågrad eliminerar onödiga delar i språkmodellernas viktsmatriser. Tillsammans gör dessa metoder komprimeringen upp till 5 % mer effektiv än att bara använda lågnivåprecision. Denna förbättring möjliggör användning av dessa modeller på vardagliga enheter som smartphones och bärbara datorer.

Några möjliga fördelar med denna mindre modell är:

  • Förbättrad integritet genom att LLM kan fungera utan att skicka data till externa servrar.
  • Lägre energiförbrukning tack vare minskade beräkningskrav.
  • Passar enheter med begränsade resurser.

Denna utveckling ligger i linje med den nuvarande trenden inom AI, där en stark ansträngning görs för att göra AI-teknologier mer tillgängliga genom att låta dem köras lokalt. Att köra stora språkmodeller på användarens enhet håller datan kvar på enheten, vilket minskar risken för dataläckor och obehörig åtkomst avsevärt. Detta är särskilt viktigt när AI hanterar mer personlig och känslig information.

Att köra en stor språkmodell på en mobil enhet kan vara utmanande eftersom det kan kräva mycket minne och kraft, vilket kan leda till kortare batteritid om modellerna inte är väloptimerade. Tekniker som använder låg precision hjälper till att spara energi, men de löser inte alla problem. I framtiden kan förbättringar behöva innebära att man kombinerar optimeringsstrategier från olika områden.

Denna studie visar att AI-verktyg kan göras mer tillgängliga för alla. Genom att effektivt minska storleken på stora språkmodeller kan fler människor använda AI på sina personliga enheter, vilket hjälper till att integrera AI i vardagen.

Studien publiceras här:

NaN

och dess officiella citering - inklusive författare och tidskrift - är

NaN
Artificiell Intelligens: Senaste nytt

Dela den här artikeln

Kommentarer (0)

Posta en kommentar
NewsWorld

NewsWorld.app är en gratis premium nyhetssida. Vi tillhandahåller oberoende och högkvalitativa nyheter utan att ta betalt per artikel och utan en prenumerationsmodell. NewsWorld anser att allmänna, affärs-, ekonomiska, tekniska och underhållningsnyheter bör vara tillgängliga på en hög nivå gratis. Dessutom är NewsWorld otroligt snabb och använder avancerad teknik för att presentera nyhetsartiklar i ett mycket läsbart och attraktivt format för konsumenten.


© 2024 NewsWorld™. Alla rättigheter reserverade.