OpenAI, Google, Microsoft och Anthropic samarbetar för att reglera AI-utveckling

Hej alla! 👋 Vi har spännande produktnyheter att dela med er idag! 📣

Samarbete mellan OpenAI, Google, Microsoft och Anthropic för AI-reglering

Fyra ledande aktörer inom artificiell intelligens – OpenAI, Microsoft, Google och Anthropic – har slagit sina krafter samman för att bilda Frontier Model Forum. Denna branschorganisation har som mål att säkerställa att utvecklingen av avancerade AI- och maskininlärningsmodeller, så kallad ”frontier AI”, sker på ett tryggt och ansvarsfullt sätt.

OpenAI introducerade begreppet ”frontier AI” i en publikation den 6 juli, vilket syftar på modeller som medför risker för den allmänna säkerheten.

Forumets primära målsättningar är:

  • Att främja forskning för att garantera säkerheten hos AI.
  • Att fastställa bästa praxis för utveckling och distribution av frontier-modeller.
  • Att samarbeta med relevanta intressenter.
  • Att stödja användningsområden som kan hantera samhällsutmaningar.

Etableringen av Frontier Model Forum understryker branschens åtagande att hantera säkerhetsfrågor och teknikjättarnas proaktiva inställning till att forma regelverk genom samarbete.

Protect AI genomför säkerhetsanalyser och skyddar maskininlärnings- (ML) och AI-system, med målet att erbjuda säkra och kompatibla ML-modeller och AI-applikationer. De tillhandahåller synlighet av hot, säkerhetstester och åtgärder för Al- och ML-system.

Företaget har lyckats samla in 35 miljoner dollar i en finansieringsrunda ledd av Evolution Equity Partners, med deltagande av Salesforce Ventures och befintliga investerare. Hittills har Protect AI totalt tagit in 48,5 miljoner dollar för att hjälpa organisationer att skydda sina ML-system och AI-applikationer mot unika sårbarheter, dataintrång och nya hot.

Protect AI:s NB Defense säkrar Jupyter Labs-notebooks, vilket främjar produktivitet och samarbete. Verktyget reducerar risker, letar efter säkerhetsbrister och levererar värdefulla insikter. AI-verktyg skyddar mjukvaruleveranskedjan för ML genom att automatiskt skanna och åtgärda eventuella problem.

Trustmi säkrar 17 miljoner dollar för att skala sin teknik för bedrägeriskydd vid betalningar

Trustmi använder artificiell intelligens, maskininlärning och data för att proaktivt upptäcka och förhindra bedrägliga transaktioner. Deras plattform erbjuder ett flertal funktioner som gör det möjligt för företag att stärka sin betalningssäkerhet.

Dessa funktioner inkluderar:

  • Övervakning av betalningar för misstänkt aktivitet, till exempel transaktioner från högriskområden eller okända leverantörer.
  • Validering av betalningar genom jämförelse med datakällor, inklusive svartlistor för kreditkort och leverantörslistor.
  • Möjliggörande av betalningskontroll där användare kan godkänna eller avvisa betalningar och sätta gränser för specifika leverantörer.

Företaget har säkrat 17 miljoner dollar i en serie A-runda, vilket totalt ger 21 miljoner dollar i investeringar, under ledning av Cyberstarts med deltagande från Zeev Ventures.

För fler uppdateringar, besök kategorin Senaste teknik.