Att leva väl med AI-chattbotar

Krönika

Woman at her laptop, chatting with an AI.

I relation till denna Chat GPT har diskussionerna om etik intensifierats. Hur kommer samhället att påverkas när så många använder tekniken? Foto: Getty Images

KRÖNIKA. I slutet av 2022 blev Chat GPT ett hett ämne nästan över en natt – en teknik som verkade "förändra allt". Det är avgörande att vi reflekterar över etiska frågor kring den nya tekniken och relationen mellan människan, tekniken och världen. Det skriver Thomas Lennerfors och Mikael Laaksoharju i en krönika.

Krönikan är baserad på ett kapitel i boken Ethics and Sustainability in Digital Cultures” som kommer ut i höst.

Chat GPT är den mest kända versionen av en ny typ av teknik som använder stora språkmodeller för att producera meningar som ser ut som om de är skrivna av människor. Enkelt uttryckt är den här tekniken ett ”autocomplete på steroider” som tar hänsyn till en hel konversation när den föreslår nästa ord.

I relation till denna teknik har diskussionerna om etik intensifierats. Hur kommer samhället att påverkas när så många använder tekniken? Reproducerar språkmodellerna den vita medelålders mannen? Det pågår också diskussioner om hur makten kan komma att koncentreras hos teknikföretagen, om dessa verktyg kan motstå hackning och huruvida de kommer att leda till en flodvåg av falska nyheter, falska uppsatser och oredlighet i den akademiska världen. Samtidigt skulle språkmodellerna kunna utjämna förutsättningarna för elever som har svårt att skriva texter, kanske på grund av sin bakgrund.

Collage, porträtt av Thomas och Mikael

Thomas Lennerfors, professor i industriell teknik och Mikael Laaksoharju, universitetslektor vid institutionen för informationsteknologi.

Som vi och många andra har hävdat är det avgörande att reflektera över etiska frågor relaterade till teknik när den designas, utvecklas, implementeras, används och demonteras. Med utgångspunkt i en teoretisk modell av teknikfilosofen Don Ihde, vill vi här lyfta fram fyra skilda relationer mellan människor, teknologi och världen.

För det första, i en förkroppsligad relation kan chattbotar beskrivas som digitala förlängningar av sina användare. De kan hjälpa oss att utföra digitala sysslor som inte är så roliga, såsom att skriva standardtexter, schemalägga möten och andra vardagliga uppgifter. Föregångare till detta finns redan, till exempel knappar på sociala medieplattformar som låter dig välja mellan olika emojis eller korta textsnuttar som på ett ögonblick ger ett tillräckligt artigt svar. Ett logiskt nästa steg är att utveckla dessa uttryckssymboler och utdrag till något mer personligt, baserat på din konversationsstil och chatthistorik.

En grundläggande etisk fråga i förkroppsligande relationer rör mänsklig handlingsfrihet. Hur aktiv vill vi att en chattbot ska vara? Nuvarande chattbotar är alltid i standby-läge och väntar på en signal från den mänskliga användaren. Men om en chattbot har mer omfattande data, såväl som kunskap om hur dess användare vill leva sitt liv, uppstår det då inte en förväntan om att den ska agera ”på egen hand” för att hjälpa dem?

För det andra, i en hermeneutisk relation kan människor använda chattbotar för att förstå världen på ett bättre sätt än vi skulle kunna utan tekniken. En funktion är att filtrera fram relevant information och avsändarens avsikter ur ett e-postmeddelande. Nästa steg är att använda den här tekniken för realtidsbedömning av talat material, till exempel studentpresentationer, lärares föreläsningar och säljpresentationer. I framtiden kan TV-debatter mellan politiker komma att innehålla en "sanningsmätare", ett instrument som värderar debattörernas påståenden efter hur "sanna" de är.

De etiska frågorna relaterade till chattbotar i hermeneutiska relationer är i vilken utsträckning chattboten representerar världen på ett sanningsenligt, opartiskt sätt. Vilka aspekter av världen plockas upp av chattboten? Kommer vi att lita på dess bedömning av världen och förlita oss på den och kommer vi att ha tid och energi att undersöka chattbotens tolkningar och göra en egen bedömning av världen?

hands holding a tablet with the text "chat GPT"

Människor använder chattbotar för att förstå världen, men representerar chattboten världen på ett sanningsenligt, opartiskt sätt?

För det tredje, i en alteritetsrelation förhåller sig människor till chattbotar som den "andra" (alter betyder "den andre" på latin), kanske som en annan person. Chat GPT uppger upprepade gånger att den inte är någon person, men gör det genom att säga "jag", vilket ändå skapar intrycket av personskap. Dessutom genereras inte texten direkt i ett sjok utan istället gradvis som om den skrivs av en människa. Chattbotar i alteritetsrelationer kan ge dig en samtalspartner, men inte vilken samtalspartner som helst utan en som du har full kontroll över, med oändligt tålamod och som alltid är till din tjänst vilket återigen gör den ”bättre” än någon mänsklig assistent som skulle kunna vara sjuk eller upptagen med något annat när du behöver hen.

Etiska frågor relaterade till alteritetsrelationer är risken för isolering och att förväntan på att andra ska stå ”till din tjänst” kan sprida sig till att bli normen även för hur vi interagerar med andra människor.

Slutligen, i en bakgrundsrelation är chattbottar inte bara verktyg för att påverka eller tolka världen, utan påverkar oss också indirekt. Till exempel när vi, på grund av förekomsten av chattbotar, misstänker att en viss text egentligen inte är skriven av en människa. Man kan föreställa sig att detta skulle kunna leda till en allmän misstro mot skriven text och författarskap. Vi befinner oss redan i en övergångsfas där vi har blivit medvetna om sådana etiska implikationer. Men hur blir det när chattbotar är lika vanliga som elektricitet är idag? Kommer vi att märka vilken effekt de har på vårt tänkande och agerande?

Thomas Lennerfors, professor i industriell teknik
Mikael Laaksoharju, universitetslektor vid institutionen för informationsteknologi

Ny bok om etik och digitala kulturer

Krönikan är baserad på ett kapitel i boken ”Ethics and Sustainability in Digital Cultures” som kommer ut i höst. Kapitlet, som är skrivet av Mikael Laaksoharju, Thomas Lennerfors, Anders Persson och Lars Oestreicher, har titeln: "What is the problem to which AI chatbots are the solution? AI ethics through Don Ihde’s embodiment, hermeneutic, alterity, and background relationships”.

FÖLJ UPPSALA UNIVERSITET PÅ

facebook
instagram
twitter
youtube
linkedin