Apples mixed reality-huvudbonad kommer att debutera på WWDC 2023
Enligt den senaste rapporten från Bloomberg kommer Apple enligt uppgift att avslöja den sedan länge ryktade mixed reality-huvudbonaden vid årets Worldwide Developers Conference (WWDC), som traditionellt hölls i juni 2023.
Avtäckningsdatumet har försenats flera gånger på grund av tekniska svårigheter. Det var från början tänkt att lanseras under våren, men det kommer nu att tillkännages på WWDC innan det börjar säljas i slutet av 2023.
Man tror att företagets headset, som ryktas kallas ”Reality Pro”, kommer att vara en mycket potent enhet som liknar skidglasögon och kan sända 3D-innehåll. Den har många funktioner, som avancerad handspårning, förmågan att rendera FaceTime-anropare realistiskt, en digital krona som låter dig lämna virtuell verklighet och mer.
Enligt den senaste tillgängliga informationen siktar Apple på att sälja huvudbonaderna för ungefär $3 000, vilket gör det till det dyraste bärbara föremålet som gjorts av företaget hittills.
Som vi alla vet kan lanseringsdatumet för sådana banbrytande produkter ändras, men den här gången hoppas Apple kunna göra produkten tillgänglig i slutet av 2023. Om allt går som planerat kommer Apple MR-huvudbonader med största sannolikhet att göra sin internationella lansering på WWDC, och gadgeten kan komma i butik i slutet av 2023.
Apples mixed reality-headset kanske inte vinner popularitet som de andra Apple-produkterna så fort det debuterade. Ändå, enligt många tekniska åsikter, har Apples mixed reality-headset potential att växa och kan bli en mer betydande intäktsgenerator för Apple inom en snar framtid.
Microsoft, Alphabet och andra företag spenderar miljarder dollar på att utveckla och implementera AI-teknik för att ta marknadsandelar inom olika branscher.
För att konkurrera med ChatGPT från OpenAI (Microsoft investerade miljarder dollar i detta företag), lanserade moderbolaget till Google, Alphabet, en AI-tjänst som drivs av LaMDA, Bard AI.
Google tillkännagav nyligen flera AI-integrationer för att göra det möjligt för sina Workspace-produkters maskininlärning att generera text och grafik. Flera framtida generativa AI-funktioner för Googles Workspace-appar, som inkluderar Google Docs, Gmail, Sheets och Slides, har tillkännages.
Funktionerna inkluderar:
- Nya sätt för Google Documents AI att brainstorma, sammanfatta och generera innehåll.
- Möjligheten för Gmail att skapa hela e-postmeddelanden från användarnas snabba punktpunkter.
- Möjligheten för Google Slides att skapa AI-bilder, ljud och video för att illustrera presentationer.
Företaget visade hur molnklienter kunde använda AI för att skicka e-postmeddelanden till kollegor, producera presentationer och säljutbildningsdokument och ta anteckningar under möten. Utvecklare kan nu skapa applikationer med hjälp av Googles teknologi på grund av företagets lansering av några av dess underliggande AI-modeller.
ChatGPT debuterade förra året, och Microsoft släppte sin Bing chatbot-aktiverade sökmotor i februari 2023. Ända sedan dess har Google visat beslutsamhet att ta om konkurrenterna i det nya AI-loppet genom att tillkännage en serie AI-uppdateringar för deras produkter.
En uppsättning USA-baserade ”betrodda testare” kommer att ha tillgång till flera nya AI-funktioner som företaget har introducerat den här månaden. Google hävdar att dessa och andra funktioner skulle göras tillgängliga för allmänheten senare under året men tillkännagav inte det exakta datumet.
OpenAI tillkännager GPT-4 som kan acceptera text- eller bildindata
OpenAI släppte den senaste GPT-4-versionen i sin forskningsblogg. Enligt rapporten är GPT-4 ett ansenligt multimodalt system som kan acceptera bild- och textinmatningar samtidigt som det bara producerar textutdata.
Efter månader av viskningar och spekulationer har OpenAI äntligen avslöjat GPT-4, en revolutionerande förbättring av problemlösningsförmåga.
Open AI hävdar att GPT-4 är ”mer innovativ och samarbetsvillig än någonsin tidigare” och är ”mer exakt när det gäller att tackla svåra situationer.” Även om den kan förstå både text och bildinmatning produceras endast textsvar.
GPT-4 hade genomgått sex månaders säkerhetsutbildning, enligt OpenAI, som också angav att i interna tester var det ”82 % mindre sannolikt att svara på förfrågningar om begränsat innehåll” och ”40 % mer sannolikt att ge faktasvar än GPT -3,5.”
I en inofficiell konversation hävdade OpenAI att det finns en ”subtil” skillnad mellan GPT-4 och dess föregångare GPT-3.5 (GPT-3.5 är modellen som driver ChatGPT). Sam Altman, VD för OpenAI, sa att GPT-4 ”fortfarande är ofullkomlig, fortfarande begränsad”, och tillade att det ”verkar mer anmärkningsvärt vid första användningen än det gör efter att du spenderat mer tid med det.”
Systemen har fortfarande många av samma problem, inklusive att vara mindre effektiva än människor i många verkliga omständigheter och att prestera på mänsklig nivå på olika professionella och akademiska kriterier, varnar OpenAI.
Allmänheten kan komma åt den uppdaterade GPT-4 via ChatGPT Plus, OpenAIs ChatGPT-medlemskap på $20 per månad, som driver Microsofts Bing-chatbot. Det kommer att finnas tillgängligt som ett API som programmerare kan använda för att bygga vidare på.