6 største forretningsfejl forårsaget af AI | AI i erhvervslivet #58

Hvordan undgår man forretningsfejl, når man implementerer AI?

Forretningsfejl i AI kan have alvorlige konsekvenser for virksomheder, så du skal teste maskinlæringssystemer meget omhyggeligt, før du bringer dem på markedet. Ellers kan store investeringer i nye teknologier ende i en stor økonomisk og omdømmemæssig katastrofe.

Så hvordan undgår man forretningsfejl, når man implementerer kunstig intelligens? Selvom det første råd kan synes for simpelt til at virke, er det: “Vær opmærksom på datakvalitet!”

Det andet råd vedrører omfattende testning i et lukket miljø, før værktøjet frigives til offentligheden. Du bør ikke kun teste værktøjets tekniske ydeevne, men også verificere dets:

  • etiske overholdelse — målet med testene er at reducere den bias og de stereotyper, som AI reproducerer,
  • juridiske overholdelse — verificere, at de data, der bruges af AI-værktøjer, samt det indhold, de genererer, overholder landets love.

Selv de store aktører inden for kunstig intelligens følger ikke dette råd i dag, idet de frigiver chatbots til verden mærket som “tidlige eksperimenter” eller “forskningsprojekter.” Men efterhånden som teknologien modnes, og love, der regulerer brugen af kunstig intelligens, træder i kraft, vil disse problemer blive mere presserende.

Google Fotos

Listen over forretningsfejl relateret til brugen af kunstig intelligens begynder med en sag fra 2015. Det var dengang, Google Fotos-appen, som brugte en tidlig version af kunstig intelligens til billedgenkendelse (computer vision), forkert mærkede fotos af sorte mennesker som fotos af gorillaer. Denne forretningsfejl skete, fordi det træningsdatasæt, der blev brugt til at lære algoritmen, indeholdt for få fotos af sorte mennesker.

Desuden havde Google et lignende problem med et Nest smart home kamera, som fejlagtigt identificerede nogle mørkhudede mennesker som dyr. Disse hændelser viser, at computer vision-systemer stadig har problemer med at genkende karakteristika ved forskellige racer.

Forretningsfejl: Aldersdiskrimination

I 2023 indgik iTutor Group en aftale om at betale 365.000 dollars for at afslutte en retssag over brugen af diskriminerende rekrutteringssoftware. Softwaren blev fundet at have automatisk afvist kvindelige kandidater over 55 år og kandidater over 60 år uden at tage hensyn til deres erfaring eller kvalifikationer.

Amazon oplevede også lignende forretningsfejl. Tilbage i 2014 arbejdede virksomheden på AI for at hjælpe med ansættelsesprocessen. Systemet havde svært ved at evaluere kvindelige kandidaters CV’er, fordi det lærte fra data, der hovedsageligt omfattede dokumenter indsendt af mænd. Som et resultat opgav Amazon projektet med at implementere kunstig intelligens i processen.

Disse sager viser, at automatisering af rekrutteringsprocessen bærer risikoen for at opretholde bias og behandle kandidater uretfærdigt.

Kilde: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

ChatGPT opfinder falske retspræcedenser

En anden sag er meget aktuel. I 2023 brugte advokat Steven A. Schwartz ChatGPT til at finde tidligere retssager til en retssag mod flyselskabet Avianca. Det viste sig dog, at mindst seks af de sager, der blev givet af AI, var falske – de indeholdt forkerte navne, sagsnumre og citater.

Dette skete, fordi store sprogmodeller (LLM) hallucinerer, dvs. de skaber sandsynlige svar, når de ikke kan finde de rigtige fakta. Derfor er det nødvendigt at kontrollere deres svar hver gang. Og Schwartz sprang dette skridt over. Derfor blev han idømt en bøde på 5.000 dollars for “groft uagtsomhed”.

Forretningsfejl: Apple Watch, der ikke fungerer ordentligt på personer med mørkere hud

Ifølge en class action-retssag fra 2021 fungerer blodiltagsappen på Apple Watch ikke ordentligt for personer med mørkere hudtoner. Apple hævder, at de har testet appen på et “bredt udvalg af hudtyper og toner,” men kritikere siger, at teknologiske enheder stadig ikke er designet med mørkhudede mennesker for øje.

Kilde: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Zillow i ejendom

Zillow, et ejendomsselskab, lancerede Zillow Offers, et program til at købe boliger og hurtigt videresælge dem, i 2018. CNN rapporterede, at Zillow havde købt 27.000 boliger siden lanceringen i april 2018, men kun havde solgt 17.000 ved udgangen af september 2021. Zillow sagde, at forretningsfejlen var forårsaget af deres brug af kunstig intelligens. Algoritmen forudsagde forkert boligpriser, hvilket fik Zillow til at betale for meget for køb. Selvom virksomheden straks lukkede programmet, måtte den afskedige 25 procent af sin medarbejderstab. Ved utilsigtet at købe boliger til priser højere end de nuværende estimater for fremtidige salgspriser, registrerede virksomheden et tab på 304 millioner dollars.

Microsofts racistiske chatbot

I 2016 udgav Microsoft en eksperimentel AI-chatbot kaldet Tay. Den skulle lære ved at interagere med Twitter (nu X) brugere. Inden for 16 timer “lærte” Tay at poste stødende, racistiske og sexistiske tweets. Twitter-brugere provokerede bevidst botten, som ikke havde de rette sikkerhedsmekanismer, der bruges i chatbots i dag, såsom ChatGPT, Microsoft Copilot og Google Bard. Microsoft deaktiverede hurtigt botten og undskyldte for hændelsen, men Tay er en af Microsofts større forretningsfejl.

En chatbot-fejl skete også for Google, som udgav en bot ved navn Meena i 2020. Meta (tidligere Facebook) undgik heller ikke at lave en lignende fejl. I august 2022 lancerede det en ny AI-chatbot kaldet BlenderBot 3, som var designet til at chatte med mennesker og lære af disse interaktioner.

Inden for dage efter sin lancering var der rapporter om, at chatbotten kom med stødende, racistiske og faktuelt forkerte udsagn i samtaler. For eksempel hævdede den, at Donald Trump vandt det amerikanske valg i 2020, spredte antisemitisk konspirationsteori og kritiserede Facebook.

Hvis du kan lide vores indhold, så bliv en del af vores travle bier-fællesskab på Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.

Robert Whitney

JavaScript-ekspert og instruktør, der coacher IT-afdelinger. Hans hovedmål er at hæve teamproduktiviteten ved at lære andre, hvordan man effektivt samarbejder, mens man koder.

View all posts →

Robert Whitney

JavaScript-ekspert og instruktør, der coacher IT-afdelinger. Hans hovedmål er at hæve teamproduktiviteten ved at lære andre, hvordan man effektivt samarbejder, mens man koder.

Share
Published by
Robert Whitney

Recent Posts

AI’s rolle i indholdsmoderation | AI i erhvervslivet #129

Virksomheder kæmper med at håndtere en stor mængde indhold, der offentliggøres online, fra sociale medieindlæg…

2 days ago

Sentimentanalyse med AI. Hvordan hjælper det med at drive forandring i erhvervslivet? | AI i erhvervslivet #128

I en tid med digital transformation har virksomheder adgang til en hidtil uset mængde data…

2 days ago

AI videoproduktion. Nye horisonter inden for videoinholdproduktion for virksomheder | AI i erhvervslivet #126

Forestil dig en verden, hvor dit firma kan skabe engagerende, personlige videoer til enhver lejlighed…

2 days ago

LLMOps, eller hvordan man effektivt håndterer sprogmodeller i en organisation | AI i erhvervslivet #125

For fuldt ud at udnytte potentialet i store sprogmodeller (LLMs) skal virksomheder implementere en effektiv…

3 days ago

Automatisering eller augmentation? To tilgange til AI i en virksomhed | AI i erhvervslivet #124

I 2018 havde Unilever allerede påbegyndt en bevidst rejse for at balancere automatiserings- og augmenteringsevner.…

3 days ago