En vit robot håller händerna mot huvudet. Roboten har ett svart band med blå lysande ögon.
Foto: Medium
AI

Vem får skulden när AI gör fel? Forskare kräver delat ansvar

Av

Vem får skulden när AI-systemen gör fel? Forskare och jurister larmar nu om att techbranschen saknar tydliga ansvarsstrukturer.

I takt med att AI-system genererar allt från text och kod till medicinska bedömningar, växer oron över bristen på ansvarsstrukturer. Frågan som nu lyfts i både branschforum och akademiska kretsar är inte längre hur smart tekniken kan bli, utan vem som bär hundhuvudet när en automatiserad process går snett.

En ny studie från Pusan National University belyser svårigheten i att enbart beskylla utvecklarna. Forskarna menar att skaparna omöjligt kan förutse varje misstag ett självlärande system gör. I stället föreslås en modell med delat ansvar mellan människa och maskin för att tvinga fram hårdare etiska ramverk.

Den juridiska gråzonen är redan ett faktum. I en intervju med Yale Insights kartlägger jurister vilka rättigheter användare egentligen har när de drabbas av AI-drivna beslut. Frågan kompliceras ytterligare av att företag som köper in AI-tjänster sällan har full insyn i hur den underliggande koden fungerar.

För svenska användare innebär detta en påtaglig osäkerhet kring allt från diskriminerande rekryteringsverktyg till felaktiga kreditbeslut. Om ingen tydlig ansvarskedja finns riskerar drabbade individer att hamna i kläm mellan techjättarnas ogenomträngliga användaravtal och en otydlig lokal lagstiftning.

Inom EU väntas den nya AI-förordningen bli ett första test för hur ansvarsfrågan ska regleras i praktiken. Huruvida domstolarna kommer att fälla företagsledare personligen eller nöja sig med att bötfälla bolagen lär klarna när de första stora rättsfallen prövas.


Läs också:

Vår journalistik bygger på trovärdighet och opartiskhet. Fakta som publiceras ska vara verifierbara och relevanta. Vi strävar efter förstahandskällor och att vara på plats där händelser utspelar sig. Läs mer här.