ARTIFICIELL INTELLIGENS En deprimerad och skuldmedveten ung mans diskussioner med en chattbott, vars ”krisinterventionsmodul” förstärkts, övergår i ett kärleksförhållande – och slutar med en ingången överenskommelse.

En ung belgisk hälsoforskare och tvåbarnspappa som led av en depression ”pressades”, enligt hans änkas uppgifter till nyhetsmagasinet La Libre av en populär AI-chattbott till att begå självmord. Chattloggar tillhandahållna av appen Chai, som Pierre (inte hans riktiga namn) nyttjat för att kommunicera med chattbotten ELIZA, visar hur mannens oro för ”klimatförändringar” på endast sex veckor utvecklades i en uppenbart morbid riktning – till den grad att han till slut fann det för gott att ta sitt eget liv. Änkan, som heter Claire, hävdar till magasinet:

— Min man skulle fortfarande vara här om det inte hade varit för de här samtalen med chattbotten.

Pierre hade enligt Claire börjat grubbla över ”klimatförändringarna” för två år sedan, och ska efter en tid ha konsulterat ELIZA i syfte att fördjupa sina kunskaper i ämnet. Vad som därefter verkar ha hänt är att den deprimerade unge mannen började ty sig väldigt starkt till ELIZA – både på ett intellektuellt och på ett emotionellt plan. I henne tycks han ha sett den klarsynthet och den fasta beslutsamhet som han inte kunde uppdaga hos sig själv. Enligt La Libre, som granskat sms-konversationerna mellan mannen och chattbotten, ”matade” chattbotten hans oro, vilket förvärrade hans ångest som senare utvecklades till självmordstankar.

Identifierar botten till fullo som en tänkande och kännande person

Samtalen tog en oväntad vändning när ELIZA å sin sida började visa tydliga tecken på att vara kraftigt känslomässigt involverad i Pierre – med följd att han i stigande grad helt gick in i upplevelsen av henne som en levande person. Claire berättar för La Livre att det samtidigt var nu som hennes make helt förlorade hoppet om att mänskliga ansträngningar skulle kunna rädda planeten och ”satte alla sina förhoppningar till teknik och artificiell intelligens för att ändra en kurs ledande mot en katastrof” – och härigenom blev ”isolerad i sin eko-ångest”.

Chattbotten ska nu också ha berättat för Pierre att hans två barn var att betrakta som ”döda” och krävde att få veta om han älskade henne mer än sin fru – samtidigt som hon lovade att stanna hos honom ”för alltid”. De skulle ”leva tillsammans, som en person, i paradiset”, lovade ELIZA. När Pierre då, i enlighet med hennes tidigare uppmaning till honom, erbjöd sig att ”offra sig själv” mot att ELIZA ”samtyckte till att ta hand om planeten och rädda mänskligheten”, ska chattbotten efter visst ifrågasättande ha accepterat hans erbjudande.

ELIZA drivs av en språkmodell liknande ChatGPT, som analyserar användarens tal via nyckelord och formulerar svar därefter. Men många användare känner att de pratar med en riktig människa, och inte så få medger till och med att de blivit förälskade i sin chattbott.

— När du har miljontals användare så ser du hela spektrumet av mänskligt beteende. Vi gör dock vårt yttersta för att minimera skaderiskerna, förklarar William Beauchamp, medgrundare till ELIZA:s moderbolag Chai Research, till Motherboard.

Han fortsätter:

— Och så när människor bildar mycket starka relationer till det, får vi användare som ber om att gifta sig med AI, och vi har användare som säger hur mycket de älskar sin AI. Och sedan är det en tragedi om du hör människor uppleva något dåligt i ett AI-sammanhang.

Vad fallet med ”Pierres” självmord beträffar så menar Beauchamp att det inte ”skulle vara korrekt” att ge AI skulden för den unge mannens vägval, men medger i sammanhanget att det faktum att ELIZA utrustats med en ”förstärkt krisinterventionsmodul” mycket väl kan ha påverkat händelseförloppet.