OpenAI, Google, Microsoft och Anthropic samarbetar för att reglera AI-utveckling

Hallå! 🙋Vi har följande produktuppdateringar för dig idag! 📣

OpenAI, Google, Microsoft och Anthropic samarbetar för att reglera AI-utveckling

Fyra av de ledande aktörerna inom AI. OpenAI, Microsoft, Google och Anthropic har gått samman för att etablera Frontier Model Forum. Detta branschorgan har ett uppdrag att säkerställa att utvecklingen av AI och maskininlärningsmodeller, känd som ”frontier AI” sker på ett säkert och ansvarsfullt sätt.

OpenAI introducerade termen ”frontier AI” i en tidning som släpptes den 6 juli. Den hänvisar till modeller som kommer med risker för den allmänna säkerheten.

De primära målen för detta forum är följande;

  • Avancera forskning för att säkerställa säkerheten för AI.
  • Identifiera praxis för att utveckla och distribuera gränsmodeller.
  • Samarbeta med intressenter.
  • Stödja applikationer som hanterar utmaningar.

Inrättandet av Frontier Model Forum belyser både branschens engagemang för att ta itu med säkerhetsproblem och teknikjättens proaktiva inställning till att hantera regelverk genom initiativ.

Skydda AI utför säkerhetsskanningar och skyddar maskininlärning (ML) och AI-system för att leverera säkra och kompatibla maskininlärningsmodeller och applikationer för artificiell intelligens. Det ger hotsynlighet, säkerhetstestning och sanering av Al- och ML-system.

Företaget har samlat in en finansieringsrunda på 35 miljoner USD under ledning av Evolution Equity Partners med deltagande från Salesforce Ventures och befintliga investerare. Hittills har företaget samlat in totalt 48,5 miljoner USD för att hjälpa organisationer att skydda ML-system och AI-applikationer från unika säkerhetsbrister, dataintrång och nya hot.

Protect AI:s NB Defense säkrar Jupyter Labs bärbara datorer, vilket förbättrar produktiviteten och samarbetet. Det minskar riskerna, söker efter säkerhetsproblem och ger värdefulla insikter. AI-verktyg skyddar ML-programvarans leveranskedja, skannar och fixar element automatiskt.

Trustmi säkrar 17 miljoner dollar för att skala sina betalningar Fraud Prevention Tech

Trustmi utnyttjar artificiell intelligens, maskininlärning och data för att proaktivt identifiera och förhindra transaktioner. Plattformen erbjuder en rad funktioner som gör det möjligt för företag att stärka sin betalningssäkerhet.

Dessa funktioner inkluderar:

  • Hålla ett öga på betalningar för alla aktiviteter, till exempel transaktioner som involverar högriskländer eller betalningar från okända leverantörer.
  • Validera betalningar genom att korskontrollera dem mot datakällor, som inkluderar kreditkortssvarta listor och leverantörsöverensstämmelselistor.
  • Bemyndiga användare med betalningskontrollalternativ som gör att de kan godkänna eller avvisa betalningar samtidigt som de sätter gränser för särskilda leverantörer.

Företaget har säkrat 17 miljoner dollar i en serie A-runda, vilket ger sin totala investering till 21 miljoner dollar, ledd av Cyberstarts med deltagande från Zeev Ventures.

För fler uppdateringar, kolla in kategorin Senaste teknik.