Aarhus Universitets segl

Goodbye Google?

Vil kunstig intelligens ændre eller erstatte traditionelle søgemetoder på nettet? Læs med i dette dobbeltinterview med professor i Medievidenskab, Anja Bechmann og ChatbotGPT om kunstig intelligens og søgemetoder på nettet.

Af Anja Kjærgaard


Vil kunstig intelligens erstatte traditionelle søgemetoder på nettet?

ChatGPT:
- Kunstig intelligens har potentialet til at revolutionere søgemetoder på nettet ved at gøre dem mere præcise og relevante. Dette kan ske ved at anvende avancerede teknologier som maskinlæring og naturlig sprogbehandling for at forstå og analysere søgeforespørgsler og indhold på nettet. På denne måde kan kunstig intelligens hjælpe med at filtrere irrelevante søgeresultater og give mere præcise svar på søgeforespørgsler. Det kan også hjælpe med at forstå kontekst og ønsker til søgeren og give mere personligt tilpassede søgeresultater.

Anja Bechmann:
- Nuværende søgemetoder bruger allerede kunstig intelligens i vid udstrækning, hvis vi forstår kunstig intelligens som lærende modeller. Alt tyder på, at disse modeller vil blive mere avancerede fremadrettet. Med avancerede mener jeg også her, at de blandt andet bliver for-trænet og live-trænet på stadig større mængder af data og mere forskelligartet data. Vi bliver sandsynligvis også bedre til at automatisere modellernes hensyn til for eksempel kulturelle normer og samfundsmæssig diversitet.

Samtidig får søgemetoder stadig mere integrerede søgeinterfaces i vores dagligdag i stedet for at søgning er noget, vi skal afbryde vores andre aktiviteter for at gøre. For eksempel ligesom når vi i dag taler til Siri i hjemmet eller i bilen, mens vi er i gang med noget andet. Det betyder også, at de data, der trænes på, ikke isoleres til bestemte kontekster, men kan lære fra forskellige situationer i brugeres hverdage og dermed være sensitive over for dem i deres måde at give feedback. Det gælder både typen af information og måden information serveres på. Dog er det værd at bemærke, at det naturligvis kun forekommer, hvis vi som samfund tillader en sådan dataopsamling og træning. 

Vil udbredelsen af ChatGPT blive et goodbye til Google?

ChatGPT:
- Det er usandsynligt, at en chatbot som ChatGPT vil erstatte Google i fremtiden. Google er et kraftfuldt søgemaskineværktøj, der er specialdesignet til at søge på internettet og returnere relevante resultater. ChatGPT er designet til at interagere med brugeren via tekstbaseret kommunikation og kan svare på spørgsmål, men det er ikke beregnet til at søge på internettet på samme måde som Google.

Anja Bechmann:
- Nej for Google er allerede begyndt at svare igen med et lignende initiativ, så det er en fejl, at se de store tech-firmaers services som en konstant størrelse. Open AI, der står bag ChatGPT, har dog på kort sigt formået at skabe meget hype og røre i tech-andedammen, og måske vil den rykke på magtbalancen mellem Microsoft og Google, men jeg tror heller ikke på en fuld erstatning. Den store ulempe ved Chat-GPT er, at man ikke kan se, hvilke kilder information kommer fra, og vi har ofte brug for at kunne vurdere information kildekritisk for at kunne bestemme værdien af det, vi får retur fra en søgning og have tillid til det. Man kan forestille sig en endnu større spaltning, hvor løsninger som Chat-GPT kan bruges til at igangsætte mere funktionelle og kreative processer, og andre søgemaskiner forfiner metoder til og forøger transparensen i netop vurderingen af kildens status i højere grad og gør det mere synligt, hvornår noget er betalt og optimeret på anden vis.

Hvordan kan man sikre, at AI søgemetoder ikke diskriminerer eller marginaliserer visse grupper i samfundet?

ChatGPT:
Der er flere metoder, som kan anvendes for at sikre, at AI-søgemetoder ikke diskriminerer eller marginaliserer visse grupper i samfundet. Nogle af de vigtigste metoder er:

  • Diversitet i dataindsamling: Det er vigtigt at indsamle data fra en bred vifte af kilder for at sikre, at AI-systemet er i stand til at håndtere forskellige typer af input og ikke diskriminerer mod bestemte grupper.
  • Fairness i algoritmer: Algoritmer skal være designet med henblik på at undgå diskrimination i deres output. Det kan gøres ved at bruge metoder som ”fairness through awareness” eller ”counterfactual fairness”
  • Transparens i AI-systemer: Det er vigtigt at gøre AI-systemerne transparente og forståelige, så brugerne kan undersøge, hvordan de træffede beslutninger.
  • Overvågning og vedligeholdelse: Det er vigtigt at overvåge og vedligeholde AI-systemerne for at sikre, at de fortsat fungerer korrekt og ikke diskriminerer mod bestemte grupper
  • Etiske guidelines. Det er vigtigt at følge etiske retningslinjer og bedste praksis, når man udvikler og implementerer AI-systemer for at sikre, at de ikke diskriminerer eller marginaliserer visse grupper i samfundet.
  • Diversitet i teamet: Det er vigtigt at have et team med forskellige erfaringer og perspektiver involveret i udviklingen og vedligeholdelse af AI-systemer, så de kan identificere og håndtere eventuel diskrimination.

Anja Bechmann:
Her er jeg enig med Chat-GPT med den vigtige tilføjelse, at dokumentationen omkring, hvad den er trænet på, er meget vigtig. Man skal i større grad være transparent omkring en models bias. For eksempel er de fleste modeller trænet på tekster fra internettet, der er globalt og indeholder tekster tilbage i tid. Her er der en bias mod store lande og sprog, og mindre sprog og kulturer er ofte underrepræsenterede i modellerne. Hvis der trænes på tværs af tid, så har kulturelle normer for eksempel udviklet sig markant, men en sådan model vil også have læring tilbage fra andre tider. 

For at imødekomme dette kan man arbejde med balancerede datasæt både i træning af modeller og særligt i test af modellerne for at se, om de holder sig indenfor lovgivningen og ikke diskriminerer mod grupper og kulturer, som forekommer mindre hyppigt. Sidst, men ikke mindst er det vigtigt, at vi som samfund alle bliver mere bevidste om den samfunds- og kulturkonstruerende karakter algoritmestyrede services har og i stigende grad får. Og så er det vigtigt at få fokus på den politiske magt, der ligger hos big tech, så den bliver ordentlig reguleret og kontrolleret. 

Kan man sikre, at der ikke vil være misinformation, når man søger svar via chatbot GPT?

ChatGPT:
-Det er svært at sikre, at der ikke vil være misinformation, når man bruger en model som ChatGPT, da den er trænet på al tekst data fra internettet. Misinformation kan findes i ethvert datasæt, og det kan være svært at adskille fakta fra fiktion. Der er dog nogle metoder, som kan hjælpe med at minimere risikoen for misinformation. En metode er at bruge flere kilder til at verificere information, før man træffer en beslutning. Det er også vigtigt at være opmærksom på, at modellen kan give subjektive eller upræcise svar, da den er trænet på en stor mængde tekst data og ikke er specifikt designet til at verificere information. En anden mulighed kan være at bruge en model der er specifikt trænet til at generere korrekt information, eller at kombinere GPT med andre modeller eller teknologier som faktatjek eller vidensbaserede systemer for at sikre informationens korrekthed.
Det er også vigtigt at være bevidst om, at som en kontekstafhængig model, GPT kan give svar, der kan være præcis i en kontekst, men ikke i en anden. Det er derfor vigtigt at undersøge konteksten, inden man træffer beslutninger eller videregiver informationen.

Anja Bechmann:
- Det korte svar er NEJ. Omvendt kan teknologier, som GPT være med til at skabe større grad af misinformation og desinformation, der i stigende grad er svær at bestemme, om er det ene eller det andet, fordi kilderne udviskes. Aktører, der bevidst vil sprede desinformation, har fået et kraftfuldt værktøj til at gøre netop dette, og selvom de selvsamme metoder anvendes til at bestemme, hvorvidt noget er verificerbart falsk, så kan mængden af verificerbar falsk information, der kan genereres let, også spille en rolle her. Vi ved, at tid er afgørende, fordi spredning sker hurtigt og potentielt vidtrækkende i online netværk. I teorien, hvis store mængder af falsk information flyder ud på samme tid i forskellige fora, så kan du sætte systemet på overdrive, og det vil være vanskeligt at stoppe bølgen effektivt. Særligt hvis for eksempel medier og sociale medieplatforme ikke har effektive værn mod det. Men jeg tror ikke på, at vi kommer væk fra et scenarie, hvor vores samfund i stigende grad består af lærende algoritmer, som vi interagerer i og med, og hvor algoritmerne interagerer med hinanden og optimerer (i)mod hinanden. Vi skal til stadighed blive ved med at forstå, hvad det indebærer for et vestligt, demokratisk samfund: Den konstruerede og konstruerende menneskelige kollektive adfærd, der finder sted heri, bliver ikke kun et spejl på vores globale kulturelle væren, men også måden, hvorpå vi konstruerer vores samfund.

Anja Bechmann er professor på Medievidenskab og forskningsleder af DATALAB – Center for Digital Social Research, Aarhus Universitet. Hun har de sidste ti år forsket i digitale medier og kollektiv adfærd med særligt fokus på lærende algoritmer, big data og sociale medier. Hun har blandt andet skrevet en Tænkepause udgivet af Aarhus Universitetsforlag om DATA.

Yderligere information

Anja Bechmann

Professor, Medievidenskab

E-mail: anjabechmann@cc.au.dk

Telefon: 51 33 51 38