Kunstig intelligens er nok teknologien med størst potentiale for at skabe ændringer i vores liv. Og netop derfor er det vigtigt, at vi kender til teknologiens mekanismer og forstår, hvad den gør.
For mens det er fantastisk, at en maskine kan diagnosticere kræft lige så præcist som et specialuddannet menneske kan, har vi stadig behov for at vide, hvordan den kom frem til konklusionen, før vi handler ud fra informationen.
Ved dette morgenmøde vil vi kredse om Explainable AI fra såvel et teoretisk som et praktisk perspektiv.
På morgenmødet vil du møde:
Niklas Kasenburg, der er Machine Learning Specialist og PhD i datalogi. Han vil give et hurtigt overblik over den forskning der findes om Explainable AI – eller Interpretable Machine Learning, som Niklas kalder det. Han vil fortælle om de udfordringer, der er i at arbejde med ”black-box”-modeller, om de paradokser, der ligger i at definere interpretability, og hvordan man fra et teknologisk og forskningsmæssigt perspektiv har fundet løsninger til dem.
Thomas Bolander er lektor ved DTU Compute og medlem af SIRI-kommissionen, som er sat i verden til at kortlægge, hvordan Danmark kan udnytte udviklingen inden for kunstig intelligens. Thomas Bolander er en markant stemme i den danske debat om tillid og forklarlighed i relation til kunstig intelligens.
På morgenmødet vil han holde et oplæg om:
Sammenspillet mellem mennesker og kunstig intelligens: etik, tillid og forklarlighed. Tilliden til kunstig intelligens bliver udfordret, når systemerne begår overraskende fejl, og vi ikke kan få en forståelig forklaring på, hvorfor fejlen opstår (og ingen garanti for, at den ikke opstår igen). Dette er en helt afgørende udfordring for meget af det kunstige intelligens, der bliver udrullet i dag. I foredraget vil Thomas snakke lidt om, hvorfor problemet opstår, og hvad vi har af muligheder for at løse problemet, både med hensyn til de tekniske og de samfundsmæssige aspekter.
Læs også: Hvad er kunstig intelligens (AI)?