Stora språkmodeller är AI utan medvetande

Jag tittade på följande video som diskuterar hur medvetande kan uppstå evolutionärt. Vid tidsstämpeln som jag länkat visas exempel på hur det är skillnad mellan texten i en bok, inläsningen av texten (av en människa) och den upplevda känslan av innehållet.

Det som saknas i dagens AI chatt bottar är stegen efter den mekaniska inläsningen av texten. De kan snabbt tränas på stora mängder digitalt representerad text. Det som sedan genereras är ord-för-ord det mest sannolika svaret på frågan användaren ställer baserat på all den ofantliga mängd text den sedan innan ”upplevt”.

ChatGTP och övriga har garanterat hela texten om Moby dick sparat någonstans nere i sin svarta låda och kan säkerligen generera svar på innehållet i texten. Men det de inte kan göra, är att subjektivt berätta om sin upplevelse av texten.

Människor upplever samma sensoriska information annorlunda

Någon som läser samma bok som dig kommer inte känna samma sak som dig om boken. Förövrigt hur skulle ni ens kunna avgöra om ni känner exakt samma sak?

Om det vore möjligt att på ett exakt vis avgöra hur en viss individ kommer uppleva en given sensorisk sensation så skulle det vara möjligt att skapa det perfekta skämtet.

Förmodligen skulle det inte vara möjligt att skapa ett skämt som vore det perfekta skämtet för alla människor. Men kanske att det finns ett individuellt perfekt bästa skämt för varje person? (som du inte dör av)

Generera text har funnits ett tag

Att skapa ny information baserat på sannolikhet har funnits länge. I högskolan skapade jag en bot i vår IRC kanal som läste vad vi andra skrev och ibland hoppade in i diskussionen med ett genererat svar baserat på allt tidigare vi diskuterat.

Dagens LLM är långt mycket mer avancerade. Vi fick låtsas ordentligt om det skulle kännas att vår bott faktiskt var något intelligent. Jag vill kunna sätta fingret på varför det känns som LLM är så mycket bättre och varför det fått sådant genomslag.

Bedöma skillnaden mellan upplevelsen av texten och den faktiska representationen i boken.

Jag tror att det i användandet av LLM kommer vara mycket svårt för användarna att veta om frågan de ställer är något mekaniskt botten har en chans att rent sannolikt svara på eller om frågan i själva verket handlar om den mänskliga upplevelsen.

Det är skillnad på att be botten skriva en kort sammanfattning över utseendet på de 5 mest förekommande karaktärerna i boken (information som finns utspritt i texten) och att be den avgöra om boken är en komedi.

I det senare alternativet är risken att den ogenerat hittar på. Alternativt är det väl troligt att den i sin träning också konsumerat recensioner av boken där genren diskuteras och på det sättet kan återge en människas upplevelse den vägen som en konstig loop.

Men just nu vet vi inte när den gör vad.

I ärlighetens namn är hela den här texten som är skriven av mig bara en upprepning av vad jag läst och hört om ämnet. Egentligen ingen större skillnad mot vad en LLM gör? Hade jag kunnat producera en helt originell text om jag velat? Jag hoppas ändå att kombinationen av anekdoterna jag kommit på leder till att nya tankar kanske väcks hos den som läser detta.


PS: Tydligen kan GPT-4 resonera fram till ett svar på en ovanlig frågeställning. Då säger jag ändå god natt, en ny värld nalkas.

Mera läsning

LLMs confabulate not hallucinate

I Am a Strange Loop


Publicerat

i

av

Etiketter: