Apples headset för mixad verklighet förväntas debutera på WWDC 2023
Enligt den senaste informationen från Bloomberg planerar Apple att presentera sitt länge omtalade headset för mixad verklighet under årets Worldwide Developers Conference (WWDC), som traditionsenligt äger rum i juni 2023.
Avtäckningen har försenats vid flera tillfällen på grund av tekniska utmaningar. Den var ursprungligen planerad att lanseras under våren, men kommer nu att avtäckas på WWDC innan den blir tillgänglig för försäljning i slutet av 2023.
Företagets headset, med det ryktade namnet ”Reality Pro”, tros vara en högpresterande enhet med likheter till skidglasögon och kapabel att visa 3D-innehåll. Det förväntas ha flera funktioner, inklusive avancerad handspårning, möjligheten att framställa FaceTime-samtal på ett realistiskt sätt, en digital krona för att navigera ut ur den virtuella verkligheten, och mycket mer.
Den senaste tillgängliga informationen tyder på att Apple planerar att sälja headsetet för omkring 3000 dollar, vilket gör den till den dyraste bärbara enhet som företaget någonsin har producerat.
Som bekant kan lanseringsdatum för sådana innovativa produkter variera, men den här gången är Apples förhoppning att produkten ska finnas tillgänglig mot slutet av 2023. Om allt går enligt plan kommer Apple troligtvis att göra sin internationella lansering av MR-headsetet under WWDC, med en eventuell lansering i butik i slutet av 2023.
Det är möjligt att Apples mixade verklighetsheadset inte omedelbart når samma popularitet som andra Apple-produkter vid sin debut. Trots det, enligt många experter inom teknikområdet, har Apples headset potential att växa och kan på sikt bli en viktig inkomstkälla för Apple.
Företag som Microsoft och Alphabet investerar miljardbelopp i utveckling och implementering av AI-teknik för att öka sina marknadsandelar inom olika sektorer.
Som ett svar på ChatGPT från OpenAI (där Microsoft har gjort betydande investeringar), har Alphabets, Googles moderbolag, introducerat en AI-tjänst baserad på LaMDA, kallad Bard AI.
Google har nyligen meddelat ett flertal AI-integrationer för att ge maskininlärning i deras Workspace-produkter möjlighet att generera både text och grafik. Framtida AI-funktioner är på gång för Googles Workspace-applikationer, inklusive Google Docs, Gmail, Sheets och Slides.
Dessa funktioner inkluderar:
- Nya metoder för Google Documents AI att skapa idéer, summera information och generera innehåll.
- Gmail ska få möjligheten att skapa fullständiga e-postmeddelanden utifrån korta punktlistor från användaren.
- Google Slides ska kunna generera AI-bilder, ljud och video för att förstärka presentationer.
Företaget har demonstrerat hur molnbaserade klienter kan använda AI för att kommunicera med kollegor via e-post, skapa presentationer och utbildningsmaterial, samt ta anteckningar under möten. Utvecklare kan nu bygga applikationer med hjälp av Googles AI-teknik efter lanseringen av deras underliggande AI-modeller.
ChatGPT lanserades förra året, och Microsoft introducerade sin sökmotor Bing med chatbot-funktioner i februari 2023. Google har sedan dess varit fast beslutna att konkurrera i det nya AI-loppet genom att presentera ett antal AI-uppdateringar för sina produkter.
En grupp ”betrodda testare” i USA kommer att få tillgång till flera nya AI-funktioner som företaget har lanserat under denna månad. Google hävdar att dessa och andra funktioner kommer att bli tillgängliga för allmänheten senare under året, men har inte gett ett exakt datum.
OpenAI presenterar GPT-4 som kan hantera text eller bilder som input
OpenAI har presenterat den senaste versionen, GPT-4, i sin forskningsblogg. Rapporten beskriver GPT-4 som ett betydande multimodalt system som samtidigt kan ta emot bild- och textinput, men endast genererar textoutput.
Efter månader av rykten och spekulationer har OpenAI slutligen avtäckt GPT-4, en revolutionerande förbättring inom problemlösningsförmåga.
OpenAI menar att GPT-4 är ”mer innovativ och samarbetsvillig än tidigare” och ”mer exakt i hanteringen av komplexa situationer”. Även om den kan förstå både text- och bildinput, genereras enbart textsvar.
Enligt OpenAI har GPT-4 genomgått sex månaders säkerhetsträning, vilket också visade att den i interna tester var ”82 % mindre benägen att svara på förfrågningar om begränsat innehåll” och ”40 % mer sannolikt att ge korrekta svar än GPT-3.5.”
I en inofficiell kommentar förklarade OpenAI att det finns en ”subtil” skillnad mellan GPT-4 och dess föregångare GPT-3.5 (som driver ChatGPT). Sam Altman, VD för OpenAI, påpekade att GPT-4 ”fortfarande är ofullständig, fortfarande begränsad”, och tillade att den ”verkar mer anmärkningsvärd vid första användningen än den gör efter att du har använt den en längre tid.”
Systemen har fortfarande många av samma brister, inklusive att vara mindre effektiva än människor i många verkliga situationer och att prestera på mänsklig nivå i vissa yrkesmässiga och akademiska kriterier, varnar OpenAI.
Allmänheten kan använda den uppdaterade GPT-4 via ChatGPT Plus, OpenAIs prenumerationstjänst på 20 dollar per månad, som även driver Microsofts Bing-chatbot. Den kommer också att finnas tillgänglig som ett API för utvecklare att använda för vidare utveckling.