Vad är en NPU? Förklarat

By rik

Inom den snabbt växande sektorn för artificiell intelligens (AI) har Neural Processing Unit (NPU) seglat upp som en central komponent. Efter att CPU:er och GPU:er länge dominerat marknaden, ses NPU:er nu som nästa stora tekniksprång, som företag strävar efter att implementera för att möjliggöra avancerade AI-funktioner och förbättra användarupplevelsen. Dessa specialiserade enheter är konstruerade för att optimera AI-prestanda genom att hantera komplexa beräkningar, parallella operationer, och maximera effektiviteten på ett sätt som traditionella processorer inte kan. Denna artikel undersöker djupare vad NPU:er är, hur de skiljer sig från CPU:er och GPU:er, och vilka tillämpningar de har i dagens bärbara datorer.

Vad utmärker en NPU?

NPU, som står för Neural Processing Unit, är en specialiserad processorenhet designad för AI-relaterade uppgifter. Dessa uppgifter omfattar bland annat bearbetning av neurala nätverk, maskininlärning och diverse AI-arbetsbelastningar. NPU:er är konstruerade för att utföra grundläggande matematiska beräkningar, i synnerhet matrisoperationer (även kallat ”matmul”), med anmärkningsvärd hastighet.

Parallell bearbetning är av största vikt för AI-uppgifter, vilket innebär att neurala nätverk kan hantera flera operationer samtidigt. NPU:er har integrerade acceleratorer som möjliggör storskalig parallellism. I kombination med minne med hög bandbredd kan NPU:er snabbt utföra matmul-operationer över flera kärnor. Sammanfattningsvis är NPU:er skräddarsydda för AI-uppgifter med fokus på att möjliggöra parallellism, utföra matmul-operationer snabbt och erbjuda skalbarhet. Det är värt att notera att olika företag använder olika benämningar på NPU:er, där Google benämner dem TPU (Tensor Processing Unit) och Apple kallar dem Neural Engine.

Hur skiljer sig NPU från CPU och GPU?

NPU:er är specialiserade för AI-relaterade uppgifter, vilket gör dem till applikationsspecifika processorer. CPU:er, å andra sidan, är allmänna processorenheter utformade för att hantera en mångfald av uppgifter. CPU:er är utmärkta för sekventiella uppgifter men inte lika effektiva för parallella uppgifter. GPU:er är speciellt konstruerade för att återge grafik och kan därmed utföra parallella uppgifter. Detta gör GPU:er användbara för AI-relaterade uppgifter, i synnerhet vid träning av AI-modeller. Med tanke på att NPU:er är designade specifikt för AI-operationer, överträffar de dock GPU:er när det gäller hastighet och effektivitet.

I datorernas begynnelse, innan GPU:er och NPU:er existerade, hanterade CPU:er all grafik genom mjukvarurendering. Under 1990-talet introducerades GPU:er som hanterar grafik genom dedikerad hårdvara. Nu befinner vi oss i NPU:ernas tidsålder, där specialiserade beräkningsenheter utvecklats för att avlasta CPU:er.

NPU:s tillämpningar i bärbara datorer

NPU:er eller specialiserade AI-hårdvaruacceleratorer användes först inom storföretag för parallell bearbetning. Numera integreras NPU:er i konsumentprodukter som bärbara datorer och smartphones. Ett exempel är Microsofts Copilot+ PC som är utrustad med en kraftfull NPU, kapabel att leverera funktioner som Recall. Funktionen Recall, som för närvarande är försenad men snart kommer att lanseras, tar skärmdumpar, bearbetar data lokalt med hjälp av NPU och skapar ett vektorindex. Om CPU:n eller GPU:n hade utfört dessa operationer hade det lett till ökad batteriförbrukning. Med en dedikerad NPU kan AI-operationer utföras effektivt utan att belasta CPU:n eller GPU:n, och utan att förbruka onödig batterikraft.

Dedikerade NPU:er driver även funktioner som Cocreator i MS Paint, bildgenerering i fotoprogram, bakgrundsborttagning från videoklipp, tillämpning av visuella effekter i DaVinci Resolve, och många andra funktioner. Med tiden kommer användningsområdena för NPU:er att utvidgas, vilket avlastar CPU:er och GPU:er och gör enheterna både snabbare och mer energieffektiva.

Apple använder sin Neural Engine, eller NPU, för att möjliggöra en rad AI-funktioner i iOS, iPadOS och macOS. Den inbyggda AI-modellen använder Neural Engine för att summera e-post, prioritera notifikationer, generera samtalssammanfattningar, skapa bilder och mycket mer. Även den nya Siri nyttjar Neural Engine för att bearbeta många AI-uppgifter.

Slutsats

Sammanfattningsvis representerar NPU:er en ny kategori av hårdvaruacceleratorer som öppnar upp för nya möjligheter inom AI-eran. Denna utveckling befinner sig fortfarande i sin linda, och vi kan förvänta oss att se många nya användningsområden och upplevelser baserade på NPU-teknik inom en snar framtid. Med den snabba utvecklingen inom AI-teknik och NPU:ers växande popularitet är det uppenbart att dessa enheter kommer att revolutionera vårt sätt att interagera med teknik och utföra komplexa beräkningar. Framtiden ser onekligen ljus ut!