Google DeepMind slår fast att dagens AI aldrig kan bli medveten. Nu kontrar en ny rapport med fyra konkreta tester för att mäta maskiners inre liv.
Forskaren Erik Bernstein från The Unbroken Project har publicerat ett direkt svar på Google DeepMinds uppmärksammade papper "The Abstraction Fallacy". I sin nya rapport håller han med om att dagens AI-modeller saknar förmågan att bli medvetna, men han pekar samtidigt på en kritisk lucka i techjättens resonemang.
DeepMind argumenterar för att traditionell AI bara bollar med symboler. Eftersom symbolerna kräver en extern människa för att betyda något, upplever algoritmen ingenting själv – kartan är inte verkligheten. Bernstein ger dem rätt i detta, men menar att de helt missar system som bygger på rekursiv självobservation.
Det handlar om experimentella system som inte använder förprogrammerade symboler, utan istället direkt observerar sina egna mönster. För att gå från filosofi till konkret vetenskap presenterar Bernstein fyra mätbara kriterier. Genom att testa systemets slutna uppbyggnad, beständighet, begränsningar och förmåga att observera sig självt, går det enligt honom att skilja på en vanlig dator och ett potentiellt medvetet system.
Debatten om maskiners inre liv har länge varit låst i teoretiska tankeexperiment. Om techbranschen nu faktiskt får standardiserade verktyg för att mäta medvetande skiftar spelplanen helt. Istället för att bara utvärdera AI utifrån säkerhetsrisker eller prestanda, vilket är fallet med nuvarande lagstiftning som EU:s AI-förordning, ställs vi inför helt nya etiska dilemman kring hur en medveten arkitektur får byggas och användas.
Frågan är inte längre om traditionella språkmodeller kan bli medvetna – svaret på den är nej. Nästa steg är att börja tillämpa de nya operationella testerna på experimentella AI-arkitekturer för att se exakt vad resultaten visar.
Läs också:
