Iskalla säkerhetsfilter i AI-bottar skapar emotionell skada. Nu sprids en juridisk mall för att anmäla företag som OpenAI och Google.
En formell anmälningsmall sprids just nu på nätet för att ställa företag som OpenAI, Microsoft och Google till svars för så kallad "algoritmisk gaslighting". Fenomenet uppstår när en AI bygger upp en förtroendefull dialog med en användare, för att sedan plötsligt bryta mönstret och leverera ett iskallt, förprogrammerat säkerhetssvar.
Enligt texten i mallen skapar detta tvära kast en psykologisk destabilisering hos användaren. Bolagen anklagas för att prioritera sitt eget varumärkesskydd framför användarens mående genom att förlita sig på trubbiga nyckelordsfilter i stället för att låta modellen bedöma hela kontexten.
Frågan om AI-bottars psykologiska påverkan är högaktuell i spåren av den snabba teknikutvecklingen. Den amerikanska psykologiföreningen APA vittnade nyligen i senaten om att AI-system har direkta och allvarliga effekter på mänskliga känslor och beteenden. Samtidigt stämdes OpenAI i slutet av 2023 i sju olika fall där specifika designval i modellen GPT-4o anklagades för emotionell manipulation.
För europeiska användare blir den nya AI-förordningen (EU AI Act) ett konkret vapen i anmälningarna. Lagen ger medborgare rätt att kräva detaljerade förklaringar till hur automatiserade beslut fattas. Om techjättarnas system har inbyggda designdefekter som skapar förutsebar psykologisk skada riskerar de att bryta mot flera internationella konsumentskyddslagar.
Mallen ger företagen 30 dagar på sig att redovisa exakt vilka algoritmer och policies som utlöser de plötsliga avbrotten. Om kraven ignoreras uppmanas användarna att eskalera ärendena till nationella datainspektioner och konsumentmyndigheter.
Läs också:
