OpenAI stöttar en ny lag som ska skydda AI-bolag från stämningar vid katastrofer och massdöd. Samtidigt växer kritiken mot Sam Altman.
OpenAI ställer sig nu bakom ett kontroversiellt lagförslag i den amerikanska delstaten Illinois. Lagstiftningen, känd som SB 3444, skulle skydda AI-företag från juridiskt ansvar om deras modeller används för att orsaka massdöd, skador på över 100 personer eller skadegörelse för minst en miljard dollar. Kravet för immunitet är att företagen inte agerat avsiktligt och att de har publicerat säkerhetsrapporter.
Det här innebär en tydlig strategiförändring för företaget. Tidigare har OpenAI motsatt sig en liknande säkerhetslag i Kalifornien med argumentet att den skulle hämma innovationen, rapporterar Bloomberg. Den inställningen fick 38 nuvarande och tidigare anställda att skriva ett öppet brev där de offentligt kritiserade vd:n Sam Altman, enligt Newsweek.
Företaget argumenterar nu för att nationella riktlinjer är bättre än ett lapptäcke av olika delstatslagar. Detta rimmar väl med den nya Trump-administrationens linje, som uttryckligen vill begränsa ansvaret för AI-utvecklare på federal nivå för att vinna den globala AI-kapplöpningen.
I EU gäller snart den nya AI-förordningen (AI Act) som ställer hårda krav på att skaparna av kraftfulla modeller tar ansvar för riskbedömningar. Om USA i stället väljer att friskriva företagen från ansvar vid katastrofer uppstår två helt oförenliga juridiska verkligheter. Det ökar risken markant för att europeiska användare får tillgång till nya AI-funktioner långt senare än amerikaner, eftersom företagen måste bygga separata, strypta versioner för den europeiska marknaden.
Lagförslaget i Illinois ska nu debatteras i delstatssenaten. Parallellt väntas den amerikanska kongressen presentera ett första utkast till en övergripande federal AI-lag under våren.
Läs också:
