Debat

DTU-professor: Vi bør have "færdselsregler" for kunstig intelligens

DEBAT: En dataetisk ed, som regeringens ekspertgruppe har foreslået, er ikke nok i forbindelse med kunstig intelligens. Forpligtende regler er lige så vigtige for AI, som færdselsloven for trafikken, skriver professor Lars Kai Hansen.

På DTU Compute er der principper for Safe AI, der blandt andet har fokus på værdier, transparens og privatliv, skriver professor Lars Kai Hansen.
På DTU Compute er der principper for Safe AI, der blandt andet har fokus på værdier, transparens og privatliv, skriver professor Lars Kai Hansen.Foto: DTU
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Af Lars Kai Hansen
Professor, DTU Compute

På baggrund af de enorme samfundsmæssige konsekvenser bliver der verden over arbejdet med at sikre, at kunstig intelligens (AI) lever op til specifikke værdier.

For eksempel har Google lanceret et detaljeret værdisæt, der både indeholder generelle krav til deres AI-systemer og benævner en række anvendelsesområder, der er no-go, herunder våben, overvågning og teknologi, der er i strid med internationale love og menneskerettighederne1.

Den danske regerings ekspertgruppe om dataetik har foreslået, at virksomhedsledere og medarbejdere tager aktivt stilling til og ansvar for dataetiske spørgsmål og dilemmaer ved at afgive en dataetisk ed. Eden er konkret udformet som en række vage spørgsmål til en AI-anvendelse2.

Fakta
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Debatindlæg kan sendes til [email protected]

Men det er helt afgørende, at vi skaber stærk tillid til AI – uden tillid vil borgerne ikke dele deres data, og uden data mister AI sin virkning, og med dårlig AI taber vi de potentielle samfundsgevinster. Så der er brug for en mere forpligtende lovgivning og egentlig test af indsigt og adfærd for dem, der sætter AI-systemer i søen, om det er i offentligt eller privat regi.

AI som færdsel
Situationen ligner den udfordring, vi som samfund har med regulering af færdsel: Vi har en række transportteknologier med kæmpestore muligheder, men uden regulering ville trafikken gå i stå og have store menneskelige og materielle omkostninger.

På samme måde som vi kræver fundamental viden om reglerne og køretøjets sikkerhed, før man begiver sig ud i trafikken, bør vi måske også regulere anvendelsen af AI.

Lars Kai Hansen
Professor, DTU Compute

På samme måde, som vi kræver fundamental viden om reglerne og køretøjets sikkerhed, før man begiver sig ud i trafikken, bør vi regulere anvendelsen af AI. Hvis man vil udføre AI i sit erhverv, så skal man have et erhvervskørekort til AI og den uddannelse, det kræver at forstå sin AI.

Og hvilke områder skal AI-færdselsloven så regulere?

Læs også

Principper for sikker AI
Indlysende ville der være fokus på GDPR1. Men der er brug for en endnu bredere horisont. På DTU Compute har vi formuleret en række tekniske Safe AI-principper3. Samlet udgør de en vision for ansvarlig kunstig intelligens baseret på konkret og realistisk AI-teknologi, og de kunne måske være et første skridt i retning af en AI-færdselslov?

Nogle af de centrale principper lyder:

  • AI skal være sikker. Det er teknisk muligt at sikre AI gennem test, validering og verifikation1
  • AI skal kunne holde på en hemmelighed. Det er teknisk muligt at indbygge beskyttelse af privatliv, såkaldt ’privacy by design’2.  
  • AI skal have veldefinerede værdier. Det er teknisk muligt at teste AI for værdierog at opfatte, reagere på og kommunikere med følelser4.  
  • AI skal være transparent og kommunikerende. Det er teknisk muligt at forklare beslutninger, der er taget af kunstig intelligens. Det er muligt at forklare både den generelle virkning af et AI-system [5] og baggrunden for specifikke beslutninger6.

Ligesom færdselsloven er kompliceret og ofte revideres, vil den hastige udvikling af AI også kræve hyppige justeringer af regler og kontrolmekanismer. Der er et stort behov for at koordinere med de øvrige europæiske lande, der også famler sig frem omkring sikring af AI.

Men at det er en kompleks opgave, må ikke blive en sovepude. Vi må sikre, at vores AI bliver "Safe AI", og at vi alle bliver hensynsfulde AI-trafikanter.

---

1 Se f.eks. The Partnership on AI. https://www.partnershiponai.org/about/ og S. Pichai 2018 AI at Google: our principles https://blog.google/technology/ai/ai-principles/

2 http://dataetikdk.dk/

3 https://eugdpr.org/

4 L.K. Hansen, 2018. Kunstig intelligens – dommedag eller Safe AI nu? Mandag Morgen 24 juni. Link: https://www.mm.dk/artikel/kunstig-intelligens-dommedag-eller-safe-ai-nu

5 Pham, H. (1999). Software Reliability. John Wiley & Sons, Inc.

6 Se f.eks. https://dataethics.eu/ 

7 Se f.eks.: Agarwal, A., et al. 2018. A reductions approach to fair classification. arXiv preprint arXiv:1803.02453.

8 Se f.eks.: Nielsen FÅ, 2011 A new ANEW: evaluation of a word list for sentiment analysis in microblogs Proc ESWC2011 Workshop p. 93-98.

9 Se f.eks.: Vilamala, A., et al., 2017. Deep Convolutional Neural Networks for Interpretable Analysis of EEG Sleep Stage Scoring. arXiv preprint arXiv:1710.00633.

10 Se f.eks.: Murdoch, W.J., Singh, C., Kumbier, K., Abbasi-Asl, R. and Yu, B., 2019. Interpretable machine learning: definitions, methods, and applications. arXiv preprint arXiv:1901.04592.

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00