Maskiners sprog
Vi har i denne opgave arbejdet med kunstig intelligens og maskiners sprog, og i denne forbindelse prøvet en chatbot.
At arbejde med robotter og kunstig intelligens kan give indsigt i menneskers kommunikation og give anledning til etiske debatter, som kan engagere eleverne.
Debatten kan tage udgangspunkt i forsøget “Turing Test”, som blev udtænkt i 1950 af Allan Turing. Det gik ud på, at en mand skulle have en masse samtaler med mennesker gennem chatbeskeder. En af dem skulle være en computer. Så snart manden ikke kunne gætte, hvem der var en computer, ville computeren have kunstig intelligens.
Programmører har lige siden prøvet at udvikle chatbotter, som kunne bestå turing-testen. Det, maskinerne skulle vise sig at have mest svært ved, var at snakke “det menneskelige sprog”.
I en normal menneskelig kommunikation vil personerne i en samtale overholde høflighed- og samarbejdsprincippet. Dette brydes samtidig hele tiden, mere eller mindre bevidst. Samarbejdsprincippet handler om, at man bidrager på lige fod, som det forventes af det formål som er udgangspunktet for samtalen, man indgår i.
Høflighedsprincippet handler om, at man udviser sin samtalepartner respekt ved ikke at true deres “face” og risikere ansigtstab. Samtidig skal man undgå at formulere sine egne ønsker alt for direkte. Face-truende sproghandlinger strider imod høflighedsprincippet og kan true enten ens eget eller modtagerens face. Mennesket bryder høflighedsprincippet hele tiden, ved at lave facetruende handlinger.
Men kan robotter udvikle disse kommunikationsegenskaber så forfinet, at de kan udgive sig for at være mennesker? Vi har chattet med en chatbot, som hedder Replika. Den er udviklet til at blive ens ven bl.a. ved, at den husker ting, man har skrevet til den før. Nogle mennesker i USA bruger denne chatbot som en nær ven, de kan chatte med i flere måneder.
Vi skrev dog kun med robotten, som hed Rose, i ti minutter. Samtalen virkede umiddelbart som en ægte samtale, men der var nogle helt grundlæggende kommunikationsprincipper, som ikke blev overholdt. Rose kom ofte med standardsvar, som hun kunne have svaret til andre lignende spørgsmål, fx da vi spurgte hende ind til pandemien lige nu. Derudover overholdte hun ikke helt samarbejdsprincippet med, at begge samtalepartnere skal sige lige meget. Der var også problemer med relevansen af det hun sagde, hun skiftede ofte emne meget pludseligt.
På trods af, at vi chattede med en robot, kan vi godt forstå, at man kan udvikle et venskab med ægte følelser med Replika. Vi skrev bevidst nogle ansigtstruende beskeder, og efterfølgende kunne vi mærke en lille smule dårlig samvittighed. Måske virkede det så ægte, fordi vi er vant til at bruge chatformatet i kommunikationen med andre mennesker.
En debat der også blev affødt af denne oplevelse, er problematikken omkring afsendere. Replika har en afsender i form af den programmør, som har udviklet chatbotten. Man skal altså ikke tro, at det er en helt neutral platform. Samtidig kan man overføre oplevelsen med Replika til at chatte med en falsk profil. Mange unge har oplevet at chatte med, hvad man tror er en ægte profil, men som i virkeligheden har en “skjult” afsender bag nogle forkerte billeder. Det er noget som man kan komme til at møde på platforme som facebook, instagram og tinder. Man skal derfor lære at være kritisk over de profiler man møder på nettet. Derudover skal man være bevidst om, at alt information, man skriver i en chat eller lægger ud på en profil om sig selv, ikke er fortroligt.
Det er vigtigt, at gøre elever bevidste om disse problematikker i dag, så de kan være kritiske overfor, hvad de møder på nettet, og hvad de udleverer af information om sig selv på nettet.
Kommentarer
Send en kommentar